Paul Lara

Cyberpunks

Paul Lara

11 Dic, 2023

¿No que no se podía regular la IA?

Se logró. Se está haciendo historia. Meses de debates sobre cómo crear un conjunto de reglas de gran alcance para las personas que construyen y utilizan inteligencia artificial, y no dudo que será la base de una regulación universal, claro, dependiendo de cada nación.

Los legisladores de los tres poderes del gobierno de la Unión Europea (el Parlamento, el Consejo y la Comisión) pasaron más de 36 horas en total debatiendo la nueva legislación entre el miércoles por la tarde y el viernes por la noche, y se impuso la seguridad y los derechos fundamentales de las personas y las empresas.

La ley en sí no es una novedad mundial. Las nuevas reglas de China para la IA generativa entraron en vigor en agosto, pero estás están más completas e incluyen prohibiciones de sistemas biométricos que identifican a personas utilizando características sensibles, como la orientación sexual y la raza, y la extracción indiscriminada de rostros de internet. Los legisladores también acordaron que las fuerzas del orden deberían poder utilizar sistemas de identificación biométrica en espacios públicos para ciertos delitos.

También se incluyeron nuevos requisitos de transparencia para todos los modelos de IA de propósito general, como GPT de OpenAI, y reglas más estrictas para modelos “muy potentes”.

Las empresas que no cumplan las normas pueden recibir multas de hasta 7.0 por ciento de su facturación global. Las prohibiciones de la IA entrarán en vigor en seis meses, los requisitos de transparencia en 12 meses y el conjunto completo de reglas en aproximadamente dos años.

También se incluyeron medidas diseñadas para facilitar la protección de los titulares de derechos de autor de la IA generativa y exigir que los sistemas de IA de propósito general sean más transparentes sobre su uso.

No ha sido sencillo llegar a estos acuerdos políticos y sociales para proteger a la población de un mal uso de la IA. Durante los dos años que los legisladores han estado negociando las reglas acordadas, y todos sabemos que la tecnología de inteligencia artificial y las principales preocupaciones al respecto han cambiado dramáticamente en un año. Cuando se concibió la Ley de IA en abril de 2021, a los responsables políticos les preocupaban los algoritmos opacos que decidían quién conseguiría un trabajo, se le concedería el estatus de refugiado o recibiría prestaciones sociales. Para 2022, había ejemplos de que la IA estaba dañando activamente a las personas. En un escándalo holandés, las decisiones tomadas por algoritmos se vincularon con familias separadas por la fuerza de sus hijos, mientras que los estudiantes que se preparaban de forma remota alegaron que los sistemas de IA los discriminaban por el color de su piel.

Luego, a finales de noviembre de 2022, OpenAI lanzó ChatGPT, lo que cambió drásticamente el debate. El salto en la flexibilidad y popularidad de la IA provocó la alarma de algunos expertos, que hicieron comparaciones hiperbólicas entre la IA y las armas nucleares.

Esa discusión se manifestó en las negociaciones de la Ley de IA en Bruselas en forma de un debate sobre si los creadores de los llamados modelos básicos, como el que está detrás de ChatGPT –OpenAI y Google, por ejemplo–, deberían considerarse como la raíz de los problemas potenciales y regularse en consecuencia, o si las nuevas reglas deberían centrarse en que las empresas utilicen esos modelos fundamentales para crear nuevas aplicaciones impulsadas por IA, como chatbots o generadores de imágenes.

Representantes de la industria de IA generativa de Europa expresaron cautela sobre la regulación de los modelos de fundación, diciendo que podría obstaculizar la innovación entre las nuevas empresas de IA del bloque. El principal punto de desacuerdo durante las discusiones finales que se prolongaron hasta altas horas de la noche dos veces esta semana fue si se debería permitir a las autoridades utilizar el reconocimiento facial u otros tipos de biometría para identificar a las personas, ya sea en tiempo real o retrospectivamente. Pero se logró el acuerdo. ¿No que no se podía regular la IA?

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube