We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Estupidez artificial: el problema que nadie vio venir

6 315 3270
18.11.2018

Cualquier conductor que vea una señal de stop a la que algún gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo una señal de stop y debe parar. En cambio un coche autónomo será incapaz de reconocerla más del 60% de las veces y pasará de largo.

Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas. Estos dispositivos han sido entrenados para ver patrones y hacen falta solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE UU.

Las personas también hemos evolucionado durante miles de años para ver patrones. “Estamos hechos para identificar caras y las vemos en las nubes, en las manchas de la pared, lo hacemos continuamente”, explica José Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En cambio la experiencia de vida de un algoritmo de visión se limita a bases de datos con miles de imágenes con las que se ha entrenado una y otra vez. “Los algoritmos han sido diseñados para resolver problemas muy concretos, pero no para comprender qué está sucediendo en su entorno, solo ven señales y aplican la misma solución siempre. Las máquinas son totalmente autistas y darles comprensión de su entorno es muy complicado”, resume Molina.

Estos fallos están cambiándole la vida a la gente. El sistema de inteligencia artificial Compas que usan los jueces en EE UU como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros más a menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La causa de estos problemas es que las bases de datos con las que funcionan estos algoritmos son de la policía y en ellas hay importantes sesgos racistas”, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC. Un estudio publicado este mismo año sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.

A un nivel mucho menos grave, la........

© Materia