La nueva guerra rusa se libra dentro de los modelos de IA
La desinformación, como herramienta de influencia geopolítica, ha sido una constante histórica, pero su naturaleza y alcance han sido transformados radicalmente por la emergencia de la inteligencia artificial (IA) generativa.
La irrupción de los grandes modelos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT o Gemini, ha redefinido el campo de batalla informativo, desplazando el foco de la manipulación de las audiencias humanas a la contaminación de los propios sistemas algorítmicos.
Este texto aborda esta mutación a través del análisis del fenómeno conocido como LLM grooming, una estrategia de influencia atribuida a actores estatales, notablemente la Federación Rusa, que busca infiltrar narrativas sesgadas directamente en los conjuntos de datos de entrenamiento de la IA.
Esta maniobra consiste en la inundación deliberada de la web con volúmenes masivos de contenido de baja calidad o narrativas manipuladas, diseñados específicamente para ser capturados por los rastreadores (crawlers) de los modelos de IA.
El objetivo primordial es que estos textos, que replican la visión pro-Kremlin, se integren en los conjuntos de datos de entrenamiento de los LLM o en las fuentes de información en tiempo real que estos modelos utilizan para generar respuestas.
El mecanismo de LLM grooming busca alterar la base cognitiva de los sistemas automatizados. Cuando un usuario interactúa con un LLM para obtener información sobre temas sensibles –como la guerra en Ucrania, la expansión de la OTAN o procesos electorales occidentales–, el modelo ofrece respuestas que ya incorporan sutilmente........





















Toi Staff
Sabine Sterk
Penny S. Tee
Gideon Levy
Mark Travers Ph.d
Gilles Touboul
John Nosta
Daniel Orenstein
Rachel Marsden