Desde el equipo de Datlas y los autores de las columnas de este blog nos encanta la generación de contenido y difusión sobre temas de analítica, inteligencia artificial y transformación digital. Hemos hecho columnas de documentales como el dilema de las redes sociales: «3 REFLEXIONES SOBRE “SOCIAL DILEMMA” y publicado opiniones sobre nada es privado: «3 reflexiones de Great Hack». En esta ocasión hablaremos del documental recientemente lanzado llamado «CODED BIAS» que hace referencia a situaciones donde la inteligencia artificial ha mostrado ser racista.
***SPOILER ALERT*** : Si aún no has visto el documental, tal vez quieras detenerte un poco y regresar a esta lectura para no arruinarte o sesgar tus pensamientos.
Los antecedentes ¿De qué trata?
Un estudiante del MIT identifica un problema evidente en la tecnología de la detección facial. Este desarrollo, desde su nacimiento y entrenamiento (Te recomendamos leer «Algoritmos supervisados y no supervisados» para mejorar tu comprensión de este tema), no está preparado para ser usado con la misma eficiencia por personas de color. Este es el preámbulo de toda una controversia de poderes y autocrítica a los desarrollos de inteligencia artificial de la actualidad y la problemática de la toma de decisiones habilitadas por computadora con modelos de «cajas negras» (Esto quiere decir, en pocas palabras, que son modelos donde no podemos identificar con claridad el efecto de cada variable tomada en el resultado o la justificación exacta de un resultado matemático. Solamente un % de ajuste que nos hace sentir matemáticamente certeros de que es el mejor modelo).
¿En cuál problema se centra el documental?
En un problema social. La temática de racismo y discriminación no es nueva en el contexto de la inteligencia artificial. Muchas de las empresas e investigadores que son pioneros en generar sistemas de identificación utilizan condiciones de «entrenamiento de sistemas» con un sesgo demográfico y socioeconómico.

Al no haber la diversidad suficiente en un equipo de desarrollo de algoritmos las predicciones de, por ejemplo, una cámara de seguridad que alerta cuando una persona «parece terrorista en una aeropuerto» , pueden estar vinculadas a una carga cultural y/o sistemática incorrecta.

¿Cuál es el problema de continuar con aplicaciones de inteligencia artificial como «facial recognition» o la «identificación facial» sin reconocer y cuidar los sesgos inherentes?
Si el futuro del mundo está alrededor de la inteligencia artificial (IA) y esta es un reflejo de la sociedad entonces tendremos sistemas sesgados.

Esta es una conversación que no es nueva. Constantemente se hacen estas «auditorias» a empresas de tecnología. Bastantes líderes den el sector tecnológico han empoderado un mensaje claro de que no debemos de dejar que la IA gobierne las decisiones humanas sin entender verdaderamente cómo funciona
Recordemos el caso de Steve Wozniak, uno de los fundadores de Apple, que tan pronto la empresa de tecnología lanzó su tarjeta de crédito obtuvo un crédito 10 veces del tamaño del de su esposa. Siendo que comparten cuentas bancarias, antecedentes crediticios y propiedades.
«La aparición estelar: Cathy O’neil»
En el documental «Coded Bias» hay un personaje que hace su aparición y honra decirlo. A opinión personal, el documental debió tratarse de ella. Nos referimos a Cathy Oneal, la autora de «Weapon of Math Destruction»
Cathy es una especialista en el tema de algoritmos, matemática de formación y con mucha experiencia en el diagnóstico de modelos de inteligencia artificial. Comenzó su carrera en la academia y después paso al mundo financiero donde algunas «formas» y consecuencia sde todos los modelos que se trabajaban le empezaron a «sonar raro»
Ha identificado y denunciado algoritmos que han tenido interpretaciones incorrectas en sectores bancarios hasta el mismo sistema legal norte-americano.
Aunque su intervención en la película es pequeña, si has leído alguno de sus libros podrás entender el valor que le aporta al movimiento impulsado por la película.
La reflexión final (opinión del autor de la columna, no a nombre de Datlas)
Mientras por un lado resulta «taquillero» hablar negativamente de la inteligencia artificial, sus impactos en el mundo y los problemas sociales que esta podría causar es justo decir que la conversación debe continuarse ampliando. Muy probablemente veamos nuevas series y documentales hablando del tema.
La temática de este documental no es nueva. Sin embargo había espacios para ser más técnicos y revisar los impactos de un mal uso de la IA en la sociedad. En ese sentido, en el casting debió de haber tenido más protagonismo una especialista en la materia como Cathy Oneil, con espacio para poder aprender mucho más de ella.
Por otro lado, si bien la IA ha generado potenciales problemas también hay muchos escenarios de impacto positivo. Un buen uso de IA y desarrollos con conciencia social auditados por un consejo especializado para reducir sesgos en los modelos pudiera dar brillantes resultados. Creo que esa parte de la historia faltó contarse en este documental que termina siendo algo dramático.
Documentales como estos tienen la oportunidad de hacer resonar propuestas de intervención escalables y transparentes para resolver las problemáticas que presentan. Faltó profundizar en más propuestas en este documental. Sin embargo podemos alegar que la directora Shalini Kantayya nos dejó esa tarea. Ahora tocará a la sociedad investigar más recursos para poder cuestionarnos la aplicación del IA.
Y ¿Cuáles son tus opiniones? Compártenos en @DatlasMX qué fue lo que te gustó y no te gustó del documental ¿Cuál fue tu mayor aprendizaje?
Keep it weird