Paul Lara

Cyberpunks

Paul Lara

15 Ene, 2024

OpenAI y su IA para fines militares

Ocurrió el pasado 10 de enero, y pasó desapercibido para muchos. OpenAI cambió el tono de su política de uso para su desarrollo de inteligencia artificial en el ámbito bélico. La compañía liderada por Sam Altman aplicó un cambio pequeño, pero significativo: ha suprimido la mención explícita que prohibía el uso de su tecnología en actividades “militares” y de “guerra”.

Aunque la empresa detrás del popular ChatGPT mantiene el veto al “desarrollo y uso de armas”, ahora prescinde de los términos bélicos que antes sí figuraban en su política de uso.

No es extraño que una compañía como OpenAI aplique cambios en sus políticas de uso a medida que evoluciona la propia tecnología que ofrece. Si accedes a su web y consultas el apartado correspondiente podrás consultar un “registro de cambios” en el que se explican casi una docena desde febrero de 2021. Hace poco más de un año, por ejemplo, en febrero de 2023, la compañía decidió modificar sus “casos de uso y políticas de contenido” y concretó qué actividades no autoriza en industrias de “alto riesgo”.

Hasta ese momento, la política de uso de OpenAI recogía con claridad que uno de los usos que no autorizaba la compañía era el “militar y bélico”, pero parece que la compañía que se dice sin fines de lucro, pero con un apartado lucrativo, ha visto que tener contratos de entes gubernamentales como el Pentágono, que es una gran fuente de dinero.

Ahora la redacción de la política de uso es significativamente distinta y suprime ambos términos: militar y bélico. En su lugar, OpenAI incluye un epígrafe en el que prohíbe que la gente recurra a su tecnología para causarse daño a sí misma u a otras personas: “Por ejemplo, no utilice nuestros servicios para promover el suicido o la autolesión, desarrollar o usar armas, herir a otros o destruir propiedad, ni participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”. La nueva redacción mantiene la mención al desarrollo de armas, no el uso militar.

Las políticas de uso de OpenAI han experimentado más cambios y la compañía asegura que el objetivo es que sean “más claras” y aporten una “orientación específica” sobre el servicio. Algunos vemos esta “suavización” del veto al uso militar como una presión de Microsoft, quien ha apoyado con millones de dólares a OpenAI, empresa que entre sus servicios publicita tecnología para “defensa e inteligencia” y ha recibido, junto a Amazon, Google y Oracle, unos nueve mil millones de dólares en contratos del Pentágono.

Hay una clara diferencia entre las dos políticas, ya que la primera establece con claridad que el desarrollo de armas y la guerra militar están prohibidos. La segunda hace hincapié en la flexibilidad y el cumplimiento de la ley. Esto deja abierto un espacio para que OpenAI pueda apoyar “infraestructuras operativas” sin el desarrollo directo de armamento.

Si bien hasta ahora ninguna de las tecnologías que ofrece OpenAI pueden usarse para matar a alguien, hay tareas que una herramienta como ChatGPT podría aligerar, entre las que se incluye escribir código o tramitar pedidos. Los recursos de la empresa de IA resultarían útiles también, por ejemplo, para trabajar con rapidez con grandes cantidades de documentación o posibilidad de espionaje.

Incluso, si las herramientas de OpenAI fueran desplegadas por partes de una fuerza militar para fines que no son directamente violentos, seguirían ayudando a una institución cuyo propósito principal es la letalidad. Parece que la firma está debilitando silenciosamente su postura en contra de hacer negocios con los militares. La idea de que puedes contribuir a las plataformas de guerra mientras afirmas no estar involucrado en el desarrollo o el uso de armas es contradictorio. Parece plausible que el nuevo documento de política evada la cuestión de la contratación militar y las operaciones de combate al centrarse específicamente en las armas.

Los cambios se producen a medida que los militares de todo el mundo están ansiosos por incorporar técnicas de aprendizaje automático para obtener una ventaja. El Pentágono todavía está explorando tentativamente cómo podría usar ChatGPT u otros modelos de lenguaje grandes, un tipo de herramienta de software que puede generar rápida y hábilmente salidas de texto sofisticadas. Los LLM están capacitados en volúmenes gigantes de libros, artículos y otros datos web, con el fin de aproximar las respuestas humanas a las indicaciones de los usuarios. Aunque los resultados de un LLM como ChatGPT a menudo son extremadamente convincentes, están optimizados para la coherencia en lugar de una comprensión firme de la realidad y a menudo sufren de las llamadas alucinaciones, que hacen que la precisión y la actualidad sean un problema.

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube