Gonzalo Almeyda

Geopolítica 4.0

Gonzalo Almeyda

14 Oct, 2022

Asimov en la SALA

-El Kremlin, mayor productor de armas del mundo, se rehúsa a apoyar la prohibición total de los SALA.

Reportes de distintas fuentes denuncian que, en mayo pa­sado, el Kremlin habría desplegado en Kiev municiones de merodeo (loitering munition) Kalashnikiov ZALA Aero KUB-BLA con inteligencia artificial. Este tipo de armamento, con la capacidad de identificar, atacar y neutralizar un objetivo sin que medie intervención humana, pertenece a lo que se ha denominado “sistemas de armas letales autónomas” (conocidos como LAWS por sus siglas en inglés, pero en adelante referidos como SALA).

Ésta no es la primera vez que los SALA hacen una apari­ción en el campo de batalla. El año pasado, un informe de Naciones Unidas reportó el uso de este tipo de armas por parte de Turquía, que habría utilizado drones Kargu-2 para cazar soldados huyendo de la guerra civil en Libia.

A la lista de países que poseen la capacidad de desplegar armas con capacidades autónomas pertenece Corea del Sur, que, desde 2010, cuenta con sofisticados sistemas de reco­nocimiento facial automático y cuyo gigante tecnológico in­signia desarrolló cañones centinela autónomos que utilizan el reconocimiento de imágenes para detectar a los humanos y dispararles. Israel también ha sido blanco de diversas acu­saciones por haber empleado tecnología bélica autónoma en la Franja de Gaza.

La mayoría de la comunidad internacional parece coincidir en los peligros del desarrollo y posi­ble uso generalizado de los SALA, como da cuenta el grupo de 30 países que abogan por su prohibi­ción total. Sin embargo, las gran­des potencias no se han sumado a este esfuerzo. Por una parte, el ejército de los Estados Unidos mi­nimiza las posibles implicaciones negativas del uso de este tipo de armamento, argumentando que las preocupaciones son exageradas y que los humanos pue­den controlar de manera efectiva estas armas. En contra­parte, el Kremlin, mayor productor de armas del mundo, se rehúsa a apoyar la prohibición total de los SALA porque niega que este tipo de tecnología exista todavía.

Aunque su uso sea cada vez más común, el Instituto de la Guerra Moderna de West Point asegura que la influencia de la inteligencia artificial en la tecnología bélica está toda­vía muy limitada y enfrenta retos importantes. Dentro de los principales obstáculos se encuentran la necesidad de acce­der a bases de datos clasificadas, la incapacidad de ejecutar varias acciones a la vez (multitasking), así como de distinguir entre correlaciones y causalidades y la dificultad a la hora de comprender el contexto y actuar en función de él. A estos in­convenientes técnicos hay que añadir el riesgo siempre pre­sente del secuestro remoto de armas y demás ciberataques de diversa naturaleza. Sin dejar de mencionar, por supuesto, la incapacidad de la inteligencia artificial de tomar decisio­nes con base en fundamentos éticos.

Otro gran debate pendiente es sobre la regulación de la investigación y desarrollo de este tipo de armamento. A medida que avance el desarrollo de los SALA, éstos se aba­ratarán y crecerá el riesgo de que grupos terroristas y otros actores no estatales accedan a ellos. Esta discusión nos con­duce a las “tres leyes de la robótica” de Isaac Asimov. Aun cuando estemos todavía lejos de desarrollar androides au­tónomos que posean la capacidad de tomar el mundo por asalto, los debates éticos sobre el uso de este tipo de armas son inaplazables. Es imperativo preguntarse si es buena idea delegar decisiones de vida y muerte a los algoritmos.

El autor es profesor de política y relaciones internacionales en el Tec de Monterrey.

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube