Paul Lara

Cyberpunks

Paul Lara

23 Oct, 2023

Empeora la transparencia de las IA

  • OpenAI está obsesionada sólo con mantener el secreto, proteger su imagen y retener la lealtad de sus empleados.

Uno de los graves problemas en el uso, entrenamiento y regulación de la inteligencia artificial generativa, es su poca transparencia. Un equipo de investigadores de la Universidad de Stanford presentaron a finales de la semana pasada su Índice de Transparencia de Modelos de Fundación (FMTI), en el que los resultados son algo preocupantes para todos.

Los principales modelos fundamentales de IA como ChatGPT, Claude, Bard y LlaMA están volviéndose menos transparentes, lo cual es un riesgo. Este estudio proviene del Centro de Investigación sobre Modelos Fundamentales (CRFM) de la universidad, parte del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano (HAI), que estudia y desarrolla modelos fundamentales de IA.

La opacidad de las empresas creadoras de las IA más usadas en el mundo plantea desafíos para otras compañías, los responsables de políticas y, por supuesto, los consumidores, quienes ven en sus datos una nueva huella que no se sabe a dónde va a parar, para qué se usan y si no los estarán utilizando en su contra en el corto plazo como medio de control.

Las organizaciones detrás de los Large Language Models (LLM) más precisos y utilizados están de acuerdo en que “quieren hacer el bien”, pero tienen diferentes puntos de vista con respecto a la apertura y transparencia. Por ejemplo, los directivos de OpenAI, principalmente Sam Altman, ha adoptado la falta de transparencia como una medida de precaución.

En un comunicado dado a conocer la semana pasada, aseguraron que creen que estaban equivocados en su pensamiento original sobre la apertura, “y hemos cambiado de opinión, que deberíamos publicar todo a cómo compartir de manera segura el acceso y los beneficios de los sistemas”.

OpenAI está obsesionada con mantener el secreto, proteger su imagen y retener la lealtad de sus empleados, pero eso sólo conlleva a una mayor duda sobre si realmente busca una noble causa con ChatGPT e inclusive con WorldCoin, su otro proyecto que recolecta biométricos engañando sobre un supuesto futuro donde todos seremos libres para usar su moneda virtual descentralizada y sin el manejo de una banco central (tal como se engañó con el uso de las criptomonedas, como el bitcoin).

Pero, ¿por qué deberían preocuparse los usuarios por la transparencia de la IA? La opacidad dificulta que otras empresas sepan si pueden construir de manera segura aplicaciones que dependan de modelos de fundación comercial, que los académicos confíen en modelos de fundación comercial para la investigación, que los responsables de formular políticas las diseñen significativas para controlar esta poderosa tecnología, y que los consumidores comprendan las limitaciones del modelo o busquen reparación por los daños causados.

Dentro del índice de los especialistas de Stanford se suma un ranking que estudia cómo una empresa construye un modelo de fundación, la disponibilidad de su conjunto de datos, cómo funciona y cómo se utiliza en cascada, entre otros aspectos. Los resultados fueron menos que estelares. Las puntuaciones más altas oscilaron entre 47 y 54 en una escala de 0 a 100, siendo Llama 2 de Meta el líder del grupo. OpenAI tiene 47% de transparencia, Google sólo 41% y Anthropic obtuvo 39%.

“En particular, cada desarrollador de código abierto es casi tan transparente en términos de puntuación agregada como el desarrollador de código cerrado con la puntuación más alta”, escribió el equipo de la Universidad de Stanford en su extenso documento de investigación. Para los que no somos científicos, eso significa que el peor modelo de IA de código abierto es más transparente que los mejores modelos de código cerrado.

La transparencia en los modelos de IA no es sólo una cuestión de interés académico. La necesidad de un desarrollo de IA adecuadamente transparente ha sido expresada por los responsables políticos a escala mundial.

Para muchos responsables políticos en la Unión Europea, así como en Estados Unidos, el Reino Unido, China, Canadá, el G7 y una amplia gama de otros gobiernos, la transparencia es una prioridad política importante en el trabajo de la masificación de la inteligencia artificial generativa.

Las implicaciones más amplias de estos hallazgos son claras. A medida que los modelos de IA se integran cada vez más en diversos sectores, la transparencia se vuelve fundamental. No sólo por consideraciones éticas, sino también por aplicaciones prácticas y confiabilidad de las empresas, las cuales son cada vez más opacas y eso conlleva a más dudas.

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube