Había ocurrido antes con efectos poco trascendentes, pero esta vez la victima fue la cantante más popular del mundo. Hace unos días se difundieron imágenes alteradas con inteligencia artificial de Taylor Swift. En ellas aparecía desnuda en diferentes escenarios, por lo que su circulación se volvió masiva en cuestión de minutos. Aunque fueron eliminadas poco después de ser detectadas, algunas tuvieron casi 50 millones de visualizaciones. Esto provocó, entre otras cosas, que la plataforma X (antes twitter) bloqueara temporalmente las búsquedas relacionadas con la cantante.

Apenas el año pasado, las grandes empresas globales de tecnología lanzaron aplicaciones que permiten crear imágenes híper realistas a través de la Inteligencia Artificial generativa. Eso generó la aparición de cada vez más videos o fotografías con contenido sexual que usan las caras de famosos para luego extorsionarlos. Pero fue hasta ahora que la preocupación por el mal uso de estas herramientas llegó hasta la presidencia de los Estados Unidos. Incluso la Secretaria de Prensa de la Casa Blanca, Karine Jean-Pierre, pidió al Congreso legislar para sancionar la generación y difusión de estas imágenes falsas o “deepfakes”.

Es evidente que las empresas de tecnología tienen que encontrar las vías para evitar la proliferación de este contenido. Los gobiernos, por su parte, tienen que apresurarse para regularlas y sancionar efectivamente a quienes las utilizan para cometer ilícitos.

En los Estados Unidos, la Ley para frenar la Violencia contra las Mujeres aprobada en 2022, plantea penas para quien difunda imágenes sexuales sin consentimiento. Con el surgimiento de estos nuevos casos, ahora se impulsa la Ley de Interrupción de Imágenes Falsificadas, la cual pretende sancionar a quien difunde imágenes alteradas sin consentimiento e incluso a quien las tiene en su poder con la intención de difundirlas. Esto último es clave, porque permite frenar al agresor antes de que ocurra la publicación y se dañe irreversiblemente a la víctima.

En el caso de México, la Ley Olimpia permite sancionar la difusión de imágenes sexuales sin consentimiento sean o no reales. Olimpia Coral, la activista que promovió estas reformas, me aclaró en entrevista que con la legislación vigente sí estamos protegidos para este contenido generado con inteligencia artificial.

Gracias a Olimpia y a otras mujeres valientes que la acompañaron en este esfuerzo, tenemos una ley de vanguardia que se replica en otros países. Sin embargo, eso no ha sido suficiente para frenar al voraz mercado de los depredadores sexuales. Seguimos siendo el primer lugar mundial de producción de pornografía infantil.

Lamentablemente, el que esté contemplado en la ley no garantiza que haya justicia. Los altísimos niveles de impunidad que tenemos en México, nos dejan vulnerables en el mundo real y en virtual.

QOSHE - Vulnerables en el mundo real y en el virtual - Paola Rojas
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Vulnerables en el mundo real y en el virtual

19 0
05.02.2024

Había ocurrido antes con efectos poco trascendentes, pero esta vez la victima fue la cantante más popular del mundo. Hace unos días se difundieron imágenes alteradas con inteligencia artificial de Taylor Swift. En ellas aparecía desnuda en diferentes escenarios, por lo que su circulación se volvió masiva en cuestión de minutos. Aunque fueron eliminadas poco después de ser detectadas, algunas tuvieron casi 50 millones de visualizaciones. Esto provocó, entre otras cosas, que la plataforma X (antes twitter) bloqueara temporalmente las búsquedas relacionadas con la cantante.

Apenas el año pasado, las grandes empresas globales de tecnología lanzaron aplicaciones que permiten crear imágenes híper realistas a........

© El Universal


Get it on Google Play