Robots letales, un debate mundial

La discusión sobre la creación de armas autónomas apenas comienza
Hacker -
Foto: Especial
Foto: Especial

CIUDAD DE MÉXICO.- Existe el temor de que la realidad alcance a la ciencia ficción y traiga consecuencias para la humanidad como las que se muestran en películas como Terminator o Matrix.

Esto se refleja en las declaraciones hechas recientemente por Stephen Hawking, quien considera que la Inteligencia Artificial es uno de los peores errores que podría cometer el ser humano. En opinión del físico, conocido por sus teorías cosmológicas y sobre agujeros negros, si no se presta la suficiente atención y control a la tecnología que puede pensar por sí misma, ésta podría crear máquinas superiores.

Siguiendo una línea de pensamiento similar, hace un par de semanas en la Organización de las Naciones Unidas (ONU) se reunió la Convención de Armas Convencionales, donde uno de los temas más importantes fue el uso de armas letales autónomas, también conocidas como “robots asesinos”, que no necesitan del control de una persona para tomar la decisión de terminar con la vida de un ser humano.

La creación de robots asesinos capaces de actuar e incluso de valerse de armas para matar seres humanos sin “preguntar” no puede no ser motivo de preocupación.

Los profesores Ronald Arkin y Noel Sharkey, quienes intervinieron como los principales detractores en este debate, aseguran que no es un tema que debe dejarse pasar.

Según Noel Sharkey, cofundador de la Campaña Contra Robots Asesinos y presidente del Comité Internacional por el Control de Armas Robóticas, las armas letales autónomas son posibles amenazas para la humanidad y, por tanto, tienen que ser prohibidas.

“No se puede garantizar que los sistemas de armas autónomas respeten de forma predecible el derecho internacional”, comentó Sharkey, argumentando que la ausencia de diálogo internacional sobre estas armas representa “un gran riesgo para la humanidad”.

Hasta el momento únicamente se ha visto el uso de robots o drones que manejados a distancia pueden utilizarse en campos de batalla, por lo que aún se está muy lejos de crear una inteligencia artificial capaz de identificar sin error al “enemigo” y abatirlo sin antes haber recibido una orden.

Hay que poner atención

Uno de los puntos a los que se llegó en la reunión de la ONU que contó con representación civil a través de la Cruz Roja, Derechos Humanos y la Campaña para Detener a los Robots Asesinos, entre otros, fue que se debe poner una atención internacional en el desarrollo de estas armas.

Lo más relevante fue que la mayoría de los Estados se oponen al desarrollo de armas “totalmente” autónomas, porque su creación, coinciden, despierta otras interrogantes que deben estar resueltas antes de poner esa tecnología en las calles o el campo de batalla.

Por ejemplo, señalan que quién será el responsable de los actos de los “robots asesinos”; qué se hará cuando ataquen a un blanco que no era “enemigo”, o cuáles son las regulaciones que deben establecerse para su producción. Sin olvidar los problemas morales y éticos que pueden despertar.

Durante las reuniones surgió también un nuevo término, el “control humano significativo” que quiere decir que, si bien será una tecnología autónoma, el fabricante o dueño puede ejercer cierto control sobre ésta, sin embargo este tipo de término es ambiguo.

Tips para tus finanzas personales directo en tu correo.
Al registrarme acepto los términos y condiciones

  TAGS

Taboola
Icono de te puede interesar de en dineroenimagen

TAMBIÉN TE PUEDE INTERESAR