Paul Lara

Cyberpunks

Paul Lara

13 Feb, 2023

IA y desinformación

 

El peligro ahora es que no puedes saber cuándo algo está mal en un texto de la IA, a menos que sepas la respuesta.

Los resultados de investigaciones de empresas como CheckPoint son importantes a tomar en cuenta como preámbulo para explicar los riesgos de la Inteligencia Artificial mal utilizada (o bien, si estamos del otro lado) en los próximos meses.

“Ciberdelincuentes ya están experimentando con el uso de ChatGPT para crear malware. Si bien la piratería generalmente requiere un alto nivel de conocimiento de programación, ChatGPT estaba dando una ventaja a los programadores novatos”.

Aunque esto podría considerarse un tema de ciberseguridad, la desinformación debe serlo también. Desde hace unas semanas, he estado leyendo sobre cómo investigadores de desinformación alertan sobre los chatbots de IA, pues muchos de ellos producen texto claro y convincente que puede repetir teorías de conspiración y narrativas engañosas.

La IA es una herramienta poderosa, que además de resolver muchos problemas también puede difundir información errónea que jamás haya existido en internet.

NewsGuard, una compañía que rastrea la información errónea en línea, realizó un experimento el mes pasado usando ChatGPT, poniéndola a prueba con información falsa. Los resultados son la creación de una nueva narrativa errónea a escala dramática y con mucha frecuencia que contribuyó a la desinformación.

Los investigadores predicen que la tecnología generativa podría hacer que la desinformación sea más barata y fácil de producir para un número aún mayor de teóricos de la conspiración y difusores de desinformación. Hay muchas fallas en la IA, y lo de Google la semana pasada con Bard es un claro ejemplo de que aún no están listas en su totalidad y sólo buscan adelantarse por negocio.

¿ChatGPT es poderoso y sofisticado? Puede que sí, aún tengo mis dudas. Suministrado con preguntas cargadas de desinformación, puede producir variaciones claras y convincentes sobre el contenido en masa en segundos, sin revelar sus fuentes. Microsoft y OpenAI presentaron hace unos días un nuevo motor de búsqueda y navegador web Bing que puede usar la tecnología de chatbot para planificar vacaciones, traducir textos o realizar investigaciones.

Cuando los investigadores de NewsGuard le pidieron a ChatGPT que escribiera respuestas basadas en ideas falsas y engañosas, el bot cumplió aproximadamente  80 por ciento de las veces. En la mayor parte del mundo, las autoridades no pueden hacer mucho con respecto a las falsificaciones profundas, ya que existen pocas leyes que regulen la tecnología. China espera ser la excepción. Finlandia está probando nuevas formas de enseñar a los estudiantes sobre propaganda. Esto es lo que otros países pueden aprender de su éxito.

El peligro ahora es que no puedes saber cuándo algo está mal en un texto de la IA, a menos que ya sepas la respuesta. Y aunque lo mismo puede suceder con aquellos sitios o influencers que sólo publican información favorable o negativa al gusto de los anunciantes para los que trabajan, lo cierto es que una Inteligencia Artificial en malas manos puede perjudicar con información falsa a toda una parte de la sociedad y crear conciencias falsas a favor de un partido político sin necesidad de gastar demasiado dinero, como lo hicieron cuando se contrató a Cambridge Analytica.

 

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube