Paul Lara

Cyberpunks

Paul Lara

8 Abr, 2024

Humanos vs. máquinas

Muchos creen que quienes moderan las imágenes, textos y videos en las diversas redes sociales en el mundo son algoritmos de inteligencia artificial. Falso, son humanos, contratistas en Pakistán, India, África y hasta EU, que acaban devastados psicológicamente por hacer la clasificación, ya que se les fuerza a ver por lo menos 30 segundos de contenido de alto impacto para decidir si se queda o se va. Piense en violaciones, asesinatos, masacres, contenido sexual, niños abusados y mucho de lo que se ve en Facebook, Instagram, YouTube y más, antes de que sean bajados.

Otros aseguraban que con IA y alta tecnología de LLM, sensores, aprendizaje profundo y visión de computadora, Amazon podía automatizar sus tiendas Just Walk Out, pero no sabían que había mil contratistas en India que trabajan en ver quién toma qué cosa por cámaras, y lo cobran vía remota. Por eso no hay expansión mundial de este modelo.

Facebook cerró M, su asistente virtual basado en texto, en 2018, después de más de dos años, durante los cuales la compañía utilizó a trabajadores humanos para entrenar (y operar) su sistema de inteligencia artificial subyacente.

Una startup llamada x.ai, que comercializaba un “asistente personal de IA”, que programaba reuniones, tenía a humanos haciendo ese trabajo y cerró en 2021, después de luchar por llegar a un punto en el que los algoritmos pudieran funcionar de forma independiente, pero fracasó.

Otra startup británica llamada Builder.ai vendió software de inteligencia artificial que podía crear aplicaciones, aunque dependía en parte de desarrolladores de software en India y otros lugares para hacer ese trabajo. ¿Les recuerda al caso de la estafadora Elizabeth Holmes y Theranos?

Existe una delgada línea entre fingir hasta lograrlo (justificar el uso de humanos detrás de escenas con la premisa de que eventualmente serán reemplazados por algoritmos) y explotar la exageración y las definiciones confusas en torno a la IA para exagerar las capacidades de su tecnología y conseguir inversionistas. Esta pseudo IA o “lavado de IA” estaba muy extendida, incluso antes del reciente auge de la IA generativa.

Estas historias son un crudo recordatorio de que la “inteligencia artificial” todavía requiere a menudo de ejércitos de humanos para funcionar correctamente, y nos da pie al siguiente análisis que leí la semana pasada de los especialistas Teppo Felin y Matthias Holweg, de la Universidad de Oxford. que les recomiendo lean si no quieren ser engañados por las empresas, como les pasa a muchos: La teoría es todo lo que necesita: IA, cognición humana y toma de decisiones.

Existen diferencias entre el aprendizaje humano y el automático. Cuando se trata del lenguaje (así como de otros dominios), son muy marcadas. Mientras que a los LLM se les presenta y entrena con billones de palabras de texto, el “entrenamiento” del lenguaje humano ocurre a un ritmo mucho más lento. Por ejemplo, un bebé o un niño humano escucha (de padres, maestros, hermanos, amigos y su entorno) un promedio de aproximadamente 20 mil palabras al día. En sus primeros cinco años, un niño puede estar expuesto a (o “entrenado” con) unos 36.5 millones de palabras. En comparación, los LLM son entrenados con billones de tokens en un corto intervalo de tiempo de semanas o meses. Los insumos difieren radicalmente en términos de cantidad (pura cantidad), sino también en términos de calidad.

Pero ¿puede un LLM, o cualquier IA cognitiva orientada a la predicción, generar realmente alguna forma de conocimiento nuevo? No pueden hacerlo. Una forma de pensar en esto es que se podría decir que un LLM tiene un “conocimiento de nivel Wiki” sobre temas variados, en el sentido de que estas formas de IA pueden resumir, representar y reflejar las palabras (y las ideas asociadas) que ha encontrado en innumerables maneras diferentes y nuevas.

En cualquier tema dado (si está suficientemente representado en los datos de entrenamiento), un LLM puede generar un número indefinido de artículos de Wikipedia coherentes, fluidos y bien escritos, pero así como es poco probable que un experto en la materia aprenda algo nuevo sobre su especialidad a partir de un artículo de Wikipedia dentro de su dominio, es muy poco probable que un LLM logre de alguna manera arrancar el conocimiento más allá de las posibilidades combinatorias de los datos y las asociaciones de palabras que ha encontrado en el pasado.

La IA está anclada en la predicción basada en datos. Los datos y la orientación de predicción de la IA son una visión incompleta de la cognición humana. Si bien concedemos que existen algunos paralelismos entre la IA y la cognición humana, como una forma de procesamiento de información, la naturaleza prospectiva de la cognición humana y cómo la lógica causal basada en la teoría permite a los humanos intervenir en el mundo, participar en experimentaciones dirigidas y resolver problemas, es la diferencia. La IA actual no puede eso, no se dejen engañar.

 

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube