Geopolítica 4.0
Gonzalo Almeyda14 Oct, 2022
Asimov en la SALA
-El Kremlin, mayor productor de armas del mundo, se rehúsa a apoyar la prohibición total de los SALA.
Reportes de distintas fuentes denuncian que, en mayo pasado, el Kremlin habría desplegado en Kiev municiones de merodeo (loitering munition) Kalashnikiov ZALA Aero KUB-BLA con inteligencia artificial. Este tipo de armamento, con la capacidad de identificar, atacar y neutralizar un objetivo sin que medie intervención humana, pertenece a lo que se ha denominado “sistemas de armas letales autónomas” (conocidos como LAWS por sus siglas en inglés, pero en adelante referidos como SALA).
Ésta no es la primera vez que los SALA hacen una aparición en el campo de batalla. El año pasado, un informe de Naciones Unidas reportó el uso de este tipo de armas por parte de Turquía, que habría utilizado drones Kargu-2 para cazar soldados huyendo de la guerra civil en Libia.
A la lista de países que poseen la capacidad de desplegar armas con capacidades autónomas pertenece Corea del Sur, que, desde 2010, cuenta con sofisticados sistemas de reconocimiento facial automático y cuyo gigante tecnológico insignia desarrolló cañones centinela autónomos que utilizan el reconocimiento de imágenes para detectar a los humanos y dispararles. Israel también ha sido blanco de diversas acusaciones por haber empleado tecnología bélica autónoma en la Franja de Gaza.
La mayoría de la comunidad internacional parece coincidir en los peligros del desarrollo y posible uso generalizado de los SALA, como da cuenta el grupo de 30 países que abogan por su prohibición total. Sin embargo, las grandes potencias no se han sumado a este esfuerzo. Por una parte, el ejército de los Estados Unidos minimiza las posibles implicaciones negativas del uso de este tipo de armamento, argumentando que las preocupaciones son exageradas y que los humanos pueden controlar de manera efectiva estas armas. En contraparte, el Kremlin, mayor productor de armas del mundo, se rehúsa a apoyar la prohibición total de los SALA porque niega que este tipo de tecnología exista todavía.
Aunque su uso sea cada vez más común, el Instituto de la Guerra Moderna de West Point asegura que la influencia de la inteligencia artificial en la tecnología bélica está todavía muy limitada y enfrenta retos importantes. Dentro de los principales obstáculos se encuentran la necesidad de acceder a bases de datos clasificadas, la incapacidad de ejecutar varias acciones a la vez (multitasking), así como de distinguir entre correlaciones y causalidades y la dificultad a la hora de comprender el contexto y actuar en función de él. A estos inconvenientes técnicos hay que añadir el riesgo siempre presente del secuestro remoto de armas y demás ciberataques de diversa naturaleza. Sin dejar de mencionar, por supuesto, la incapacidad de la inteligencia artificial de tomar decisiones con base en fundamentos éticos.
Otro gran debate pendiente es sobre la regulación de la investigación y desarrollo de este tipo de armamento. A medida que avance el desarrollo de los SALA, éstos se abaratarán y crecerá el riesgo de que grupos terroristas y otros actores no estatales accedan a ellos. Esta discusión nos conduce a las “tres leyes de la robótica” de Isaac Asimov. Aun cuando estemos todavía lejos de desarrollar androides autónomos que posean la capacidad de tomar el mundo por asalto, los debates éticos sobre el uso de este tipo de armas son inaplazables. Es imperativo preguntarse si es buena idea delegar decisiones de vida y muerte a los algoritmos.
El autor es profesor de política y relaciones internacionales en el Tec de Monterrey.