Abel Mejía Cosenza

Trump L’Oeil

Abel Mejía Cosenza

12 Abr, 2024

Tendencias internacionales en regulación de la IA

Con el advenimiento de aplicaciones de inteligencia artificial (IA) en los últimos años, se ha vuelto un imperativo para los países y los usuarios identificar y generar una regulación aplicable en la materia. Y no es para menos, el reporte de la revista Fortune valúa el mercado de inteligencia artificial en 515 billones de dólares en 2023 y se espera que llegue a dos trillones de dólares para 2030 y billones de usuarios. Como referencia, las cinco plataformas de inteligencia artificial líderes actualmente son las siguientes: 1) ChatGPT, con 1.61 billones de usuarios; 2) Gemini, con 391 millones; 3) DeepL, con 241 millones de visitas; 4) Character AI, con 202 millones y 5) Perplexity, con 57 millones de usuarios.

En México se acaba de presentar, por parte de Ricardo Monreal, de Morena, una iniciativa para regular la inteligencia artificial. Si bien esta dista de ser lo ideal, en general es una noticia positiva, pues en otras jurisdicciones ya se llevan avances importantes en la materia y en México no debemos ni podemos quedarnos atrás en asuntos relacionados con esta tecnología que definirá de manera muy importante el destino de nuestro país y de la humanidad. 

Así, la Unión Europea hace poco aprobó la Ley de Inteligencia Artificial, que es una legislación única que revolucionará cómo los negocios y las organizaciones europeas operan. Esta legislación ataca el tema desde una perspectiva de clasificación del riesgo, creando un sistema con cuatro categorías de aplicaciones de inteligencia artificial. Las de riesgo inaceptable, las de alto riesgo, las de riesgo limitado y las de riesgo mínimo, imponiendo restricciones de diferente nivel en cada caso. Así, las aplicaciones inaceptables serán las que creen una amenaza clara a la seguridad, sustento o derechos de las personas, como, por ejemplo, aplicaciones que generen sistemas de calificaciones sociales o las que permitan dar comandos de voz a objetos para realizar conductas peligrosas. Por su lado, las aplicaciones de alto riesgo comprenderán, entre otras, las tecnologías usadas en relación con infraestructura que podrían poner en peligro la vida o salud de los ciudadanos, aquellas relacionadas con formación educativa o vocacional que pueda determinar el acceso a la educación o influir en la trayectoria profesional de una persona o aquellas que puedan ser utilizadas por las agencias de seguridad y que puedan afectar los derechos fundamentales de las personas. 

Por su lado, Estados Unidos no quiere quedarse atrás. Así, en octubre 30 de 2023, el presidente Joe Biden firmó la orden ejecutiva sobre inteligencia artificial (Executive Order on the Safe, Secure and Trustworthy Development and Use of Artificial Intelligence).  Esta orden ejecutiva, entre otros temas, por un lado i) obliga a los desarrolladores de inteligencia artificial a compartir sus pruebas de seguridad y otra información crítica con el gobierno de EU y, por otro lado, ii) instruye a las agencias gubernamentales a establecer sus propios estándares de seguridad y prueba, así como a iniciar acciones de supervisión y sanciones. Un punto relevante en este tema es que el año pasado la Federal Trade Commission presentó una primera demanda contra los propietarios de una aplicación de inteligencia artificial Automators AI, lo que deja ver una nueva era de acciones legales en este dominio.

Habrá que estar atentos a que en nuestro país avancemos rápido, pero bien y con una perspectiva de proteger a la ciudadanía, pero sin frenar en extremo el desarrollo de esta incipiente industria.

  •  

PA’L GORDITO

Para comida cubana en Naples, Florida, hay que ir a Fernandez The Bull (fernandezthebull.com) y probar el Fern Cuban Sandwich, ¡acompañado de un tradicional mojito!

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube