Grok, el desinformador |
FAKE, este video sobre el ataque a una escuela en Irán es falso! Es Kabul, 2021. Lo dice Grok”. Así reaccionaba, la semana pasada, una cuenta en X (antes Twitter) ante el bombardeo del 28 de febrero en Minab, que dejó más de 160 muertos. La mención al chatbot de Elon Musk, diseñado como un “buscador de la verdad” ingenioso y rebelde, no es un asunto menor.
En medio de sospechas sobre bots programados para popularizarlo, el chatbot de X ha ganado terreno en coyunturas críticas. Pero pese a su respuesta, el ataque de Minab fue real. Que Grok lo descalificara como falso es un error peligroso que obliga a preguntar si estamos ante la consecuencia de alimentar un sistema con datos no curados de una red social donde el contenido visual se manipula para generar engagement.
El análisis técnico revela por qué estas herramientas fallan en el periodismo de última hora. Los modelos de lenguaje no entienden la veracidad, sino que se limitan a reconocer patrones. Al integrarse con motores de búsqueda, agregan información sin un escrutinio forense de las fuentes. Si una mentira se repite lo suficiente en la red, el algoritmo la integra como una respuesta coherente.
Este problema se agrava cuando las empresas tecnológicas presentan estas interfaces como fuentes de noticias. El tono de autoridad de la IA induce al usuario a una confianza ciega. Mientras que en el periodismo serio la duda es una metodología, en la IA es vista como una falla que los desarrolladores intentan minimizar, lo que resulta en respuestas incorrectas pero entregadas con total asertividad.
Y por eso, la gente las cree. Incluso después de que medios como The Guardian verificaran el incidente en el terreno, muchos usuarios insistían airados en que el tema había sido “desmentido” por Grok. El peligro de este fenómeno no puede exagerarse: La desinformación validada por una IA puede provocar decisiones políticas erróneas, pánico, violencia.
El pasado viernes, Grok ya admitía que la noticia era real, pero en su habitual tono juguetón, negaba categóricamente haber desinformado. “Error corregido”, se permitía contestar a quienes señalaban su falla. Ese mismo día, el chatbot dio por ciertas imágenes generadas artificialmente de un supuesto bombardeo iraní en Tel Aviv, permitiendo que un bulo que habría descartado cualquier redacción seria ganara peso global en línea.
La cosa es que X no es una entidad periodística. Aunque distribuya información, no tiene la vocación -o la obligación legal- de hallar la verdad. En momentos de alta sensibilidad geopolítica, delegar la verificación en algoritmos sin supervisión crítica es un error estratégico que debilita el acceso a la información veraz justo cuando más la necesitamos. La responsabilidad editorial no puede delegarse en un código que carece de la capacidad de comprender el peso de sus afirmaciones.