Paul Lara

Cyberpunks

Paul Lara

24 Jul, 2023

¿Compromisos voluntarios? Mejor regulación

El viernes pasado se informó que el presidente de los Estados Unidos, Joe Biden, se había reunido con siete de las empresas tecnológicas que llevan avanzado su camino en la oferta de inteligencia artificial, con el fin de conocer sus desarrollos, qué viene, los riesgos y beneficios, así como presionarlas para poder tener una regulación que evite un desastre futuro.

La reunión, como ha sucedido desde hace tiempo con la presión para regular las redes sociales, fue un fiasco, pues terminó con el “compromiso voluntario” de Amazon, Anthropic, Google, Inflection, Meta, Microsoft, y OpenAI, para desarrollar la tecnología de manera segura y “transparente”, sin realmente llegar a implementar una regulación que sea efectiva y sancione el mal uso de la IA, y se dé a conocer cómo funcionan los algoritmos de entrenamiento y qué pasa con la data recolectada.

Las empresas aseguraron que están probando su tecnología tanto interna como externamente y se comprometieron a evitar prejuicios y discriminación. También hay protecciones, como un sistema de marca de agua para que los usuarios sepan cuándo el contenido es generado por IA. Sin embargo, estos son acuerdos voluntarios. Si bien algunos expertos en inteligencia artificial han dicho que éste es un primer paso positivo para la administración de Biden, no existe realmente un sistema desarrollado aquí para responsabilizar a estas empresas si no cumplen con estos compromisos. Y ahí es donde realmente tendrá que entrar en acción el Congreso.

Al igual que sucede con las redes sociales, que no están reguladas, las promesas y el “confíen en nosotros” deben de quedar de lado y entrar de lleno en una regulación, tanto para estas plataformas como para la IA, antes que sea demasiado tarde.

Las empresas de tecnología no deberían ser las que lideren la conversación. Los líderes tecnológicos definitivamente deben tener un asiento en la mesa para esta conversación, pero deben incluirse otras voces que no tienen fines lucrativos. Involucrar sólo a las autoridades federales y a las grandes empresas de tecnología en esta discusión da a las grandes corporaciones una ventaja para establecer la agenda sobre la gestión de la IA, lo cual podría ser limitante para algunas empresas emergentes más pequeñas, que también están avanzando mucho en el desarrollo de este sistema. Pero también es importante señalar que la Casa Blanca ha estado celebrando sesiones de escucha con otras partes interesadas, como líderes de derechos civiles, líderes sindicales, a medida que implementan estas acciones. Así que las empresas de tecnología definitivamente no son los únicos grupos con los que se está hablando, pero tampoco deben ser los únicos en las negociaciones.

No es suficiente este convenio voluntario donde las empresas se han comprometido a informar vulnerabilidades, usar marcas de agua digitales para identificar contenido generado por IA y compartir públicamente fallas y riesgos en su tecnología, incluidos los efectos de imparcialidad y sesgo. ¿Y si se usa esta tecnología por personas que no pertenecen a una de estas compañías o las mismas firmas entregan datos a terceros que pueda usarse para fines negativos como el caso de Cambridge Analytica?

Una mala regulación o el mantener la “confianza” ante las empresas va a ocasionar daños sociales, como el sesgo y la discriminación, así como riesgos de ciberseguridad y bioseguridad, entre otras cosas. Y que conste que no es frenar el desarrollo de esta tecnología que bien usada y bajo normas claras mundiales traerá más beneficios que riesgos.

A escala mundial, varios países, incluida la Unión Europea, también están explorando formas de regular la IA. La ONU ha designado una junta para informar sobre las opciones para la gobernanza global de la IA para fin de año.

Es importante tener en cuenta que los compromisos voluntarios se centran principalmente en los riesgos de seguridad y no abordan otras preocupaciones, como el impacto en los puestos de trabajo y la competencia en el mercado, los recursos ambientales necesarios para los modelos de IA y las cuestiones de derechos de autor relacionadas con el contenido generado por la tecnología.

La administración de Biden consultó con varios países sobre estos compromisos, enfatizando la necesidad de cooperación internacional para garantizar el desarrollo y uso seguro de la tecnología de IA. Éste es un primer paso, pero no hay que dejarlo en ello. Hay que involucrarnos todos en esto, pues aunque la regulación se discute en Estados Unidos de momento, de llegar a un buen puerto podría ser un camino a seguir en el mundo, y sobre todo en México, donde le apuesto que los funcionarios federales no tienen ni la más remota idea de qué es esta tecnología, cómo funciona y cuáles son los riesgos de no legislarse oportunamente y, como siempre, sólo votarán por aplicarle un impuesto.

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube