Paul Lara

Cyberpunks

Paul Lara

3 Jul, 2023

Potenciando la Inteligencia Colectiva

Para muchos, el concepto de Inteligencia Colectiva no es nuevo, lleva varios años explorándose y trabajándose. Sin embargo, a medida que las nuevas tecnologías están cambiando el mundo que nos rodea y nuestra sociedad se vuelve cada vez más dependiente de los datos y los algoritmos para tomar decisiones, la combinación de inteligencia humana y artificial se vuelve cada vez más importante. Incluso, las diferentes plataformas de IA que actualmente se han lanzado han conllevado a la posibilidad de crear esa mente colectiva que podría ayudar a resolver miles de problemas sociales que van desde la salud hasta factores educativos y artísticos.

Aunque muchas de las conversaciones sobre la IA se han centrado en el desarrollo tecnológico o tal vez en la hipérbole sobre el reemplazo laboral o la amenaza existencial al humano, creo que hay enfoques equivocados que pueden replantearse. Se trata de movilizar diferentes recursos de inteligencia que tenemos en la sociedad y apoyarla con la IA y con muchas de las herramientas de la plataforma para ayudar a tomar mejores decisiones o mejores predicciones, o justo para generar nuevos tipos de soluciones cuando se intenta resolver problemas.

La IA, es un hecho, se ha implementado desde hace muchos años y ante su masificación debemos pensar en cómo se pueden usar específicamente las máquinas para mejorar y escalar los esfuerzos humanos colectivos. Aclaro, debe haber una regulación urgente para explotar los beneficios e impulsar a que el uso de la tecnología sea responsable, ético y esté alineado a los valores humanos.

Creo que una de las mayores oportunidades que nos da este desarrollo es la capacidad de filtrar el ruido. La IA puede ayudar a aumentar la inteligencia colectiva y los esfuerzos humanos al ayudarnos a determinar qué es importante y qué no lo es para analizar la cantidad aparentemente interminable de datos que tenemos en estos días y ayudar a mejorar la capacidad humana, en lugar de reemplazarla.

La Inteligencia Artificial realmente presenta oportunidades para descubrir patrones y correlaciones que actualmente no podemos hacer debido a la falta de capacidad en términos de velocidad y cantidad de información.

Otra oportunidad es pensar en cómo se pueden mejorar las interacciones sociales humanas individuales y las capacidades sociales, y con eso me refiero a cosas como el modelado mental. No se confundan con control, sino a crear un sistema que pueda ayudarnos a predecir mejor las emociones, creencias, decisiones, intenciones de la gente común que interactúa con otros en las redes sociales, y cómo podrían mejorar nuestra inteligencia emocional, en cómo detectamos las emociones de otras personas. Al tener esa conciencia de cómo podemos mejorar nuestra comunicación con otras personas, habría menos odio y más empatía.

Aunque muchos ven el uso actual de la IA como esa herramienta que está ayudando a que las tareas aburridas que uno tiene que realizar a diario o que son bastante repetitivas puedan hacerse por parte de las máquinas y con ello liberar todo el potencial de una persona para lograr otras tareas creando posibilidades increíbles, hay muchas otras que se van planteando.

Uno de los mayores desafíos es evitar la homogeneidad a través de la IA. Creo que la forma en que se construyen la mayoría de los sistemas de esta tecnología es para maximizar la visión mayoritaria y presentar una visión homogénea de un tema en particular o de una comunidad en particular, por lo que el desafío es incorporar diversidad en la IA y la inclusión. Eso viene, en parte, a través de una fuerza laboral diversa, que no existe en este momento. La tubería de IA está fuertemente dominada por una comunidad homogénea en sí misma y eso significa que se están perdiendo diversas perspectivas del desarrollo, así como sus implementaciones.

Lo obvio a cuidar es la privacidad. Incluso lo que estaba describiendo como una oportunidad viene con la toma de una gran cantidad de datos personales sobre ti y las personas en tu red social, y cómo se almacenan esos datos, cómo se usan o cómo podrían usarse, plantea muchos riesgos Además de eso, creo que un área de preocupación que se pasa por alto es lo que los filósofos llaman atrofia cognitiva. La idea de que al seguir confiando en nuestros dispositivos como formas de ampliar nuestras propias capacidades cognitivas, comenzaremos a perder algunas de las nuestras: el claro ejemplo de esto es la memoria. Ahora tendemos a descargar mucha información en nuestros dispositivos que solíamos tener que recordar.

Cuando no pensamos en las consecuencias de la automatización y no regulamos oportunamente, podemos llegar a un punto en el que la decisión que se toma sólo reproduce injusticias. De esta forma, la tecnología no es neutral y eso es un gran, gran problema.

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube