La peligrosa nueva era de la discriminación de grandes datos

Mayor conocimiento sobre los clientes crea mayor potencial de discriminación
Management -
La ética, la economía y la ley no dejan claro exactamente dónde termina la personalización y segmentación de valor agregado y dónde empieza la discriminación dañina. Foto: Especial
La ética, la economía y la ley no dejan claro exactamente dónde termina la personalización y segmentación de valor agregado y dónde empieza la discriminación dañina. Foto: Especial
Felicitaciones. Compró la idea de los grandes datos y está rindiendo buenos frutos. Analiza y procesa cada teclazo, como Facebook, cada tuit y punto relevante para su empresa. Sabe exactamente quiénes son sus mejores (y peores) clientes, empleados y socios. El conocimiento es poder. ¿Pero qué tipo de poder compra todo ese conocimiento?
 
Los grandes datos crean grandes dilemas. Mayor conocimiento sobre los clientes crea mayor potencial de discriminación. La diferencia entre discriminación de precios y discriminación positivamente correlacionada con el género, grupo étnico, geografía, clase o capacidad tecnológica es infinitamente chica. 
 
Efectivamente, todo el apuntalamiento epistemológico de los grandes datos para las empresas es que hace posible la segmentación informada y la personalización de forma costo efectiva.
 
Pero la ética, la economía y la ley no dejan claro exactamente dónde termina la personalización y segmentación de valor agregado y dónde empieza la discriminación dañina.
 
Por ejemplo, si los datos muestran que los homosexuales que reciben un ascenso en su compañía son más eficaces para dirigir el tráfico a su página de Internet, ¿privilegiar a los gays con promociones es una discriminación injusta contra sus contrapartes heterosexuales? ¿En bueno para el negocio (y ni hablar de justo) negar ofertas especiales a las afroamericanas porque son irrefutablemente menos lucrativas que sus clientas asiáticas o hispanas?
 
La analítica de los grandes datos genera estas cuestiones menos hipotéticas que prácticas y estratégicas. Los grandes datos tienen el potencial de transmutar digitalmente ciertos estereotipos culturales en conjuntos de datos empíricamente verificables. Combine esos datos con los protocolos computacionales de la analítica predictiva, y las organizaciones de todo el mundo tienen la habilidad de segmentar lucrativamente grupos de clientes.
 
Por supuesto, muchas industrias reguladas (notablemente los seguros médicos y los servicios financieros) prohíben expresamente ciertos tipos de discriminación. No debería haber duda de que el conocimiento íntimo del cliente que confieren los grandes datos garantiza mayor escrutinio de los gobiernos en todo el mundo.
 
Pero la principal fuente de preocupación no es la privacidad; es si las compañías usan (y cómo) analítica de grandes datos para justificar sus estrategias de segmentación y personalización. Entre más eficaces sean estas herramientas analíticas para segmentar y servir a los clientes, más probable es que sus algoritmos sean auditados por reguladores o abogados.
 
Es hora de que los defensores de los grandes datos discriminen respecto a qué tan discriminadores quieren ser.
 
Michael Schrage, un investigador del Centro de Negocios Digitales de la Escuela Sloan del Instituto Tecnológico de Massachusetts, es autor de "Serious Play".
 
#kgb

Tips para tus finanzas personales directo en tu correo.
Al registrarme acepto los términos y condiciones

  TAGS

Taboola
Icono de te puede interesar de en dineroenimagen

TAMBIÉN TE PUEDE INTERESAR