Paul Lara

Cyberpunks

Paul Lara

15 Abr, 2024

IA generativa y guerra; Microsoft y el dinero

Las políticas de Open AI, según se expone en su sitio web, “prohíben el uso de nuestras herramientas para desarrollar o utilizar armas, herir a otros o destruir propiedad”. Sin embargo, Microsoft parece que se saltó esta parte el año pasado cuando, según un reporte de The Intercept, hizo una presentación sobre cómo el Pentágono y el Departamento de Defensa de Estados Unidos podría usar los desarrollos de la compañía que encabeza Sam Altman, como DALL-E y Chat GPT, para mejorar sus estrategias de ataque y defensa.

La presentación titulada: IA generativa con datos del Departamento de Defensa, muestra cómo automatizar tareas que van desde documentos y análisis hasta el mantenimiento y ejecución remota de máquinas, entre otros. Microsoft invirtió diez mil millones de dólares en Open AI en 2023, y las dos empresas se han entrelazado estrechamente.

El documento de Microsoft se extrae de una gran cantidad de materiales presentados en un seminario de capacitación sobre “alfabetización en IA” del Departamento de Defensa en octubre de 2023, organizado por la Fuerza Espacial de EU en Los Ángeles. El evento incluyó una variedad de presentaciones de empresas de aprendizaje automático, incluidas Microsoft y Open AI, sobre lo que tienen para ofrecer al Pentágono y al Ejército de Estados Unidos.

Los documentos, que están abiertos al público en el sitio web de Alethia Labs, destacan una variedad de usos federales “comunes” de Open AI, incluido el de defensa. Un punto que llama la atención es el denominado Entrenamiento avanzado en visión por computadora, el cual señala que los sistemas de gestión de batalla pueden mejorar con el uso de los modelos DALL-E para crear imágenes y entrenar  esta plataforma.

Tal como suena, un sistema de gestión de batalla es un paquete de software de comando y control que proporciona a los líderes militares una descripción general de la situación de un escenario de combate, permitiéndoles coordinar cosas como el fuego de artillería, la identificación de objetivos de ataques aéreos y los movimientos de tropas. La referencia al entrenamiento de visión por computadora sugiere que las imágenes artificiales generadas por DALL-E podrían ayudar a las computadoras del Pentágono a “ver” y mejorar las condiciones en el campo de batalla, una ayuda particular para encontrar (y aniquilar) objetivos.

En el momento de la presentación, las políticas de Open AI aparentemente habrían prohibido el uso militar de DALL-E. Microsoft dijo a The Intercept que si el Pentágono utilizara DALL-E o cualquier otra herramienta de Open AI a través de un contrato con Microsoft, estaría sujeto a las políticas de uso de esta última empresa. Aun así, cualquier uso de la tecnología Open AI para ayudar al Pentágono a matar y destruir de manera más efectiva sería un cambio dramático para la compañía, que describe su misión como desarrollar inteligencia artificial centrada en la seguridad que pueda beneficiar a la humanidad.

Liz Bourgeois, portavoz de Open AI, dijo que la compañía de inteligencia artificial no participó en la presentación de Microsoft y que no había vendido ninguna herramienta al Departamento de Defensa. “No participamos en esta presentación y no hemos tenido conversaciones con las agencias de defensa estadunidenses sobre los casos de uso hipotéticos que se describen con nuestras herramientas”.

Aunque no hay duda que muchas naciones y sus ejércitos usan la IA para tomar ventajas en campos de batalla, análisis de amenazas, uso de armamento (como drones y misiles) y defensa, el uso de esta herramienta es una cuestión ética compleja, que se complica aún más por lo poco que entendemos en última instancia en qué se convertirá la IA.

Recién ahora estamos comenzando a comprender las implicaciones de amplio alcance de la IA en nuestras vidas civiles, y mucho menos en el campo de batalla. A menudo, el impacto que tendrán las armas de guerra nunca podrá entenderse plenamente hasta que se empleen las mismas. Estoy seguro de que los participantes del Proyecto Manhattan en ese momento sintieron que su trabajo era ético, pero uno se pregunta cuáles fueron sus opiniones al presenciar la devastación de Hiroshima y Nagasaki, o durante la crisis de los misiles cubanos.

En última instancia, si uno considera que el uso de la IA en la guerra es ético, y si las nuevas directrices del Departamento de Defensa ayudan a que así sea, dependerá del optimismo inherente hacia el campo de la IA. Puedes adoptar un enfoque utilitario y considerar todas las vidas salvadas por ataques de robots precisos y calculados, sin la pérdida de soldados humanos, o adoptar un enfoque de ética de la virtud y lamentar que los robots asesinos eliminen a los humanos basándose en cómo se organiza una secuencia de números dentro de sus sistemas internos: algoritmos programados sin ética.

 

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube