Rodrigo Pacheco

Suma de Negocios

Rodrigo Pacheco

18 Feb, 2023

Inteligencia artificial e histeria

A mediados de 2019 escribí que venía una gran ola de cambio tecnológico, pero como en un tsunami, cuando retrocede el mar muchas personas curiosas caminan por la playa asombradas, en lugar de prepararse para surfear o sobrevivir la marejada que viene. En junio se comenzaba a ver la ola en el horizonte cuando un ingeniero de Google de nombre Blake Lemoine advirtió que el modelo de lenguaje natural a través de la inteligencia artificial de la compañía, denominado LAMDA, le había hecho concluir que dicho sistema era un ser sintiente, un ser capaz de sentir emociones, sufrimiento, gozo, etcétera, en ese entonces escribí que el lenguaje mueve los resortes de las emociones e intelecto humanos, por lo que una herramienta con esas capacidades podría activar esos resortes; ya para octubre, en otra columna, planteaba que 2023 sería el año que marcaría la entrada a una nueva fase de la inteligencia artificial con las nuevas plataformas de generación de imágenes como Stable Diffusion y procesamiento de texto como Chat GPT. La ola se adelantó un poco y comenzó a reventar el 30 de noviembre cuando OpenAI lanzó el ahora célebre Chat GPT.

El miedo

La reacción inicial ha sido de entusiasmo e incredulidad pero ahora ha llegado otra típica reacción humana ante una nueva tecnología, el miedo. Cada que surge una nueva tecnología, una minoría de las personas la entiende y adapta, otra minoría la abraza ciegamente, un grupo más grande la desestima para luego temerla. Lo mismo ocurrió con la electricidad, el automóvil, las computadoras personales, el internet y las redes sociales. Todavía en el 2000, ante la primera burbuja de las .com, había quien decía que el internet era una moda pasajera, más tarde con las redes sociales se pensaba que era una moda adolescente y luego esas mismas personas argumentaban que las “redes” son una herramienta de máxima manipulación que provocó el Brexit y el triunfo de Donald Trump. Ahora, con la inteligencia artificial, la mayor reacción ha sido de confusión y de medio y, al igual que cuando surgió el internet o las redes sociales, las reacciones se dividen entre la histeria y los llamados a que se regule. Un ejemplo de la histeria lo retrata la nota que se publicó en el periódico The New York Times titulada en español: Una conversación con el chatbot de Bing me dejó profundamente perturbado. En dicha nota el periodista cuenta que quiso averiguar si el Chat GPT, que Microsoft integró a su buscador de internet Bing, tenía deseos oscuros y utilizó como punto de partida el concepto de “la sombra del ser” del psicólogo Carl Gustav Jung, que se refiere a la parte oculta y reprimida de la sicología de una persona y, bajo ese supuesto, obviamente en el Chat GPT integrado a Bing empezó a generar un constructo cognitivo acorde a los deseos del periodista y, con ello, se repitió con más amarillismo algo parecido al episodio del ingeniero de Google. La nota de The New York Times tuvo éxito en apelar al miedo y ha generado muchas referencias, aunque no profundiza en la comprensión del funcionamiento y los riesgos de la plataforma. Hay otra reacción igual de común al miedo, pero quizás más inocente y se trata de la petición de una regulación, dicha reacción suele surgir primero en legisladores que no entienden mucho de los mecanismos que mueven a una nueva tecnología, pero sí intuyen el miedo que causa entre sus electores, lo mismo antes pidieron que se regularan las redes sociales y antes el internet, etcétera. Al ignorar los mecanismos que mueven a los modelos de lenguaje natural en la inteligencia artificial dichos llamados a la regulación generan castillos en el aire sobre los cuales no se puede plantear una discusión seria y constructiva. Hay, en cambio, unos pocos que entienden la tecnología y que hacen planteamientos sensatos, como un ejemplo de ello está el propio fundador y presidente ejecutivo de Open AI, Sam Altman, quien recientemente tuiteó que en el Chat GPT buscarían un menor sesgo cognitivo, una mayor personalización con límites más amplios y, en tercer lugar, un insumo público para definir el funcionamiento de la plataforma y los límites de la misma. La reflexión más completa hasta el momento la hizo un experto en inteligencia artificial llamado Nicholas Kees, quien en un post titulado Cyborgism, plantea cómo lograr una mejor alineación en los sistemas de inteligencia artificial y la intervención humana en sistemas de inteligencia artificial que tienen que tener objetivos definidos en lugar de abiertos, como ocurre con el Chat GPT. El debate apenas empieza, pero es claro que habrá mucha histeria.

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube