Marco Gonsen

Memoria Flash

Marco Gonsen

25 May, 2016

Ciberracismo

Vi apenas hace unas semanas la película Ex Machina (Alex Garland, Reino Unido, 2015) y no comparto el entusiasmo de 93 por ciento de críticos que le dieron su aval según la página Rotten Tomatoes. Una de las razones de mi desencanto es que la protagonista no resulta tanto modelo de inteligencia artificial racional –como se expone en el sugerente inicio de la cinta– sino más bien emocional: vemos una robot menos dedicada a utilizar su raciocinio para resolver problemas complejos o ganar partidas de ajedrez, y más resuelta a expresar sentimientos como amor, odio, compasión y rebeldía contra su creador.

Más allá de las ficciones que explotan la premisa de jugar a ser Dios, lo cierto es que aún no existen máquinas capaces de pensar por sí mismas, sino que operan de acuerdo con la información que se les suministre y las órdenes que un cerebro humano les asigne. Tampoco, en teoría, hay dispositivos o aplicaciones a los que se les pueda programar para experimentar sentimientos afectivos o discriminatorios. Por ello, suenan raras dos recientes noticias que involucran a sistemas computacionales con conductas racistas.

La primera surgió a finales de marzo pasado cuando Microsoft dio a conocer un chatbot llamado Tay, programa experimental diseñado para “conversar” en Twitter con jóvenes de entre 18 y 24 años radicados en Estados Unidos, y cuyo “aprendizaje” se incrementaría en la medida en que interactuara más con los usuarios de carne y hueso. El problema fue que los interlocutores de Tay lograron provocarlo para que tuiteara mensajes en los que manifestó su odio por la humanidad, su simpatía por Hitler y su odio contra las feministas, así como su apoyo al genocidio de mexicanos. Todos esos post fueron borrados al final por la firma de Redmond. 

No se trataba de la primera aplicación de inteligencia artificial puesta a prueba en redes sociales. Peter Lee, vicepresidente corporativo de investigación de Microsoft, refirió la experiencia que tuvieron en China con Xiaolce, otro software que ya había deleitado con sus charlas a 40 millones de personas, lo que los llevó a tratar de replicar la experiencia en otro ambiente cultural. En un texto en el que ofrece disculpas por los tuits agresivos de Tay, Lee culpó de esta situación al ataque coordinado de cibernautas que buscaron explotar una vulnerabilidad del chatbot. Y vaya si la encontraron.

Al final del día, Tay sólo tenía propósitos de entretenimiento. Lo que sí tiene implicaciones mucho más serias es la información publicada el pasado lunes por el periódico digital ProPublica, sobre un software empleado en Estados Unidos para predecir si un delincuente es capaz de reincidir en una conducta ilícita, y que presuntamente está sesgado en contra de los negros.

Se trata de un índice de evaluación de riesgo elaborado por la empresa Northpointe, con base en cuestionarios aplicados a presos –en los que supuestamente no se les hacen preguntas sobre su raza– y en el análisis de sus antecedentes penales. El puntaje de los reos evaluados es considerado por los tribunales para determinar la sanción correspondiente a un determinado delito (fianza, cárcel o tratamientos de rehabilitación).

Si el índice revela un mayor riesgo de reincidencia, el juez tenderá a imponer al inculpado una pena mayor que lo inhiba a cometer otro crimen en el futuro. La intención de recurrir a este procedimiento matemático es que la sentencia dependa más de un criterio objetivo y científico y menos del prejuicio o la subjetividad del magistrado.

ProPublica evaluó una muestra de esa tecnología y encontró que sólo en 20% de casos el algoritmo realmente atinó en pronosticar conductas delictivas y que, extrañamente, tiende a identificar más como futuros criminales a las personas de raza negra, mientras que los inculpados blancos solían ser calificados preferentemente como de bajo riesgo.

El reportaje recuerda el hallazgo de Latanya Sweeney, investigadora afroamericana de Harvard que hace tres años ya había descubierto que cuando se rastrean en un buscador nombres y apellidos asociados con comunidades negras, aparecen anuncios de Google Adwords que sugieren que tales personas podrían tener antecedentes penales, lo que podría afectar el que obtuvieran un empleo.

Algoritmos así parecen tener vida y alma, semejantes a las del personaje de Ex Machina que se empeña en demostrar con su conducta que su cuerpo no está hecho de metal.

marco.gonsen@gimm.com.mx

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube