Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 "experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco". (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)
Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.
En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a........