Paul Lara

Cyberpunks

Paul Lara

12 Dic, 2022

ChatGPT, otro engañabobos

 

 

La pulida Inteligencia Artificial de Open AI es muy divertida, llena de marketing, se ha hecho viral y está enganchando a millones. ChatGPT no es más que la evolución de GPT-3, ese desarrollo que apareció hace unos años en las portadas de varios medios en el mundo, pero a la que no dieron acceso a cualquiera, como ha sucedido en esta ocasión. Estuve usando este fin de semana la IA, y es interesante ver cómo responde los cuestionamientos, aunque no es tan diferente de lo que ya existía. Algunos especialistas dicen que la única diferencia es que hoy, además de estar abierto a cualquier persona, es que tiene límites para evitar que preguntes cosas ilegales, sexistas, racistas, criminales o incómodas desde el punto de vista sexual.

Hace unas dos semanas, aproximadamente, Meta lanzó su versión llamada Galactica, “capaz de resumir papers científicos, resolver problemas matemáticos o documentar moléculas y proteínas”. Sin embargo, los pocos que pudieron probarla se dieron cuenta que inventaba respuestas fantásticas y colocaba en momentos contenido violento, racista y sexista, algo que está cuidando Open AI. Una manera de probar el buen funcionamiento de una Inteligencia Artificial es hacerle la misma pregunta varias veces y conocer sus respuestas: ChatGPT no es muy fiable, a veces da información correcta, otras veces no. Además, tiene el problema que en IA los especialistas llaman alucinaciones, es decir, inventa información y no hay ninguna señal que avise de ello, lo cual es peligroso. Inventa incluso referencias bibliográficas.

Para el usuario promedio no es fácil distinguir cuán inteligente es uno de estos sistemas, pero ChatGPT no soluciona ninguno de los problemas básicos que se llevan intentando resolver durante años para conseguir una AGI (Inteligencia Artificial General). Cuando hablamos de esta AGI, hablamos de un sistema que está limitado por la realidad, y ChatGPT no lo está. Sin embargo, es interesante ver su evolución, aunque hay que destacar que la IA es mucho concepto, pero poco inteligente.

Para entender cómo funciona ChatGPT es importante decir que, a nivel técnico, agrupa palabras y frases que ha visto antes y tiene almacenadas, pero no entiende el significado de lo que muestra. Tiene un claro problema de confabulación. Por ejemplo, si lo usas para generar una biografía, acierta algunas cosas y otras no, pero sólo lo sabrás si de verdad conoces la historia de la persona. Yo lo intenté con la del vocalista de Megadeth, Dave Mustaine, y falló en ocasiones. De ahí que hay que tener mucho cuidado con este tipo de “inteligencias” que pueden cometer errores.

ChatGPT está teniendo un impacto importante en la sociedad por su apertura a cualquiera, pero no es una solución para lograr sistemas inteligentes de verdad. No va a servir para los coches autónomos o para los robots domésticos. Es como el bitcoin, ése del que todos decían que era el futuro del uso monetario en el mundo y hoy está en el hoyo. No está claro cuáles van a ser las aplicaciones de ChatGPT. La más inmediata es escribir trabajos escolares, sin que sea preciso. Sin embargo, hay que tener cuidado con la desinformación, creo que va a acelerar de forma dramática la velocidad a la que se va a producir desinformación. Se va a usar para propaganda o para páginas web falsas y engañar a la gente.

Gary Marcus, un profesor emérito de la Universidad de Nueva York, quien fundó dos empresas de IA, compradas por Uber, y quien ha escrito decenas de reportes y cinco libros sobre el tema, el último, Reeboting AI, aclara que, técnicamente, hay dos partes en el sistema: “Una está encargada del diálogo y aprende sobre la marcha a perfeccionar las respuestas que ofrece. La otra parte, la gran base de datos que está detrás, sólo se entrena una vez durante meses. Es la que predice la estructura del lenguaje humano, y ésa es fija. Desde luego, han hecho una operación de marketing brillante para lograr que millones de personas mejoren la parte del diálogo”.

Marcus ha agregado lo que considero lo más importante a tener en cuenta en este tipo de “inteligencias”: “Hay un significado técnico detrás de IA potente, que es el de Inteligencia Artificial General, un sistema que puede razonar por sí mismo y entender el mundo. Creo que estamos muy lejos de eso. Que ChatGPT sea peligroso es diferente de que sea una IA potente. Si acaba siendo peligroso, o no, va a depender de a qué sistema se conecte. Si conectas algo así a la red eléctrica, o a un arma, evidentemente se convierte en una amenaza. El peligro de un sistema así puede venir de cuán inteligente es, pero también del poder que se le otorga. Si ChatGPT lleva a una persona ingenua a creer que es inteligente cuando no lo es, ése en sí es el peligro”. ChatGPT puede ser brillante para unos y brutalmente estúpido para otros. La respuesta es que elige trozos de texto de aquí y allá, los pega y los reproduce. Pero no entiende la relación entre esos trozos. El ejemplo de dar por muerto a Noam Chomsky es realmente embarazoso, pues ha dado múltiples entrevistas y charlas este año, pero el sistema es tan peligrosamente estúpido que no es capaz de entender que la gente que da conferencias no puede estar muerta, explica Marcus.

 

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube