menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Deepfakes y violencia digital: casos y regulaciones emergentes

22 0
03.03.2026

Esta semana hemos vuelto a enfrentar un debate que ya no puede ser ignorado: los deepfakes no consensuados y su papel en la violencia digital. Más allá del ruido tecnológico o la curiosidad por la novedad, estamos hablando de un fenómeno que perjudica directamente la dignidad, la seguridad y la vida de personas reales, y que hoy exige respuestas más allá de meras declaraciones de buenas intenciones.

Los llamados deepfakes, imágenes o videos generados por Inteligencia Artificial (IA) que parecen reales, representan ya una forma extendida de abuso. Según organizaciones internacionales, un porcentaje abrumador de estos contenidos es de naturaleza sexual y no consensuada, y la mayoría de las víctimas son mujeres y niñas. En algunos estudios se afirma que hasta 98 por ciento de los vídeos deepfake en línea son pornográficos y 99 por ciento de las víctimas son mujeres.

Este uso de la IA no es una simple invasión a la privacidad: es violencia digital con consecuencias muy reales.  La UNICEF ha señalado que cuando los deepfakes implican menores, incluso si el contenido es sintético, equivale a abuso sexual y debe considerarse como tal. El impacto psicológico y social de ver tu imagen manipulada y divulgada puede ser devastador, sobre la autoestima, la reputación y la vida personal de las víctimas.

Pese a la gravedad del problema, las respuestas regulatorias han sido lentas y fragmentadas. En México, como en muchos países, aún no existe una norma específica que aborde la generación y difusión de deepfakes sexuales no consensuados; iniciativas aisladas han buscado incluir estos delitos en el código penal, pero no han prosperado. En Estados Unidos, leyes como el Take It Down Act han empezado a exigir a plataformas eliminar contenido íntimo no consensuado, lo cual es un avance, pero no es una solución global ni universal.

También enfrentamos un problema técnico: muchas plataformas aún no cuentan con herramientas de detección y moderación eficaces, y los procesos actuales de eliminación de contenido pueden tomar días o semanas, tiempo para que el daño se vuelva irreversible.

La única forma de avanzar es reconocer que la violencia digital no está separada de la violencia física o psicológica del mundo offline. Si la tecnología genera un daño tangible, la ley y las políticas públicas deben adaptarse con la misma urgencia con la que se desarrollan estas herramientas. Eso implica no sólo castigar la distribución, sino criminalizar la creación, exigir transparencia de algoritmos y obligar a plataformas a adoptar medidas preventivas y de detección proactiva.

La pregunta ya no es si estamos preparados para enfrentar el abuso de deepfakes; la pregunta es si queremos proteger a las comunidades o permitir que la tecnología siga siendo un arma contra las víctimas. Esa es la reflexión que debemos llevar al centro del debate público y legislativo en México y más allá.


© El Heraldo de México