Ricardo Monreal presentó recientemente un proyecto para regular la inteligencia artificial en México. El proyecto de este senador tendrÃa que ser tomado en serio. Sin importar de quién viene, y dejando de lado filias o fobias partidistas, es momento de que nuestro paÃs decida cómo enfrentará los riesgos que la IA representa.
Los efectos presentes de esta tecnologÃa no están en duda. Actualmente la IA generativa es empleada para asuntos tan diversos como la publicidad masiva personalizada, la generación de canciones o de textos, la investigación cientÃfica o para reemplazar cierto tipo de trabajos.
Pero son sus efectos futuros los que resultan más preocupantes. Dado que su potencia se incrementa, literalmente, de forma exponencial, es evidente que el brinco trepidante que la IA ha dado entre 2022 y 2024 será una minucia comparada con el que dará en los próximos años. AsÃ, la IA se extenderá e integrará en múltiples áreas de nuestra sociedad, transformando la forma en que vivimos y nos comportamos.
Las promesas de la inteligencia artificial son enormes: soluciones a la emergencia climática, curas para enfermedades como el cáncer, respuestas a preguntas como el origen del cosmos... Pero también lo son sus riesgos; esta tecnologÃa podrÃa ser utilizada para clasificar a millones de personas, para manipular su comportamiento o para para trastocar democracias.
Con lo anterior en mente, es fácil ver que el Poder Legislativo mexicano está obligado a protegernos de las amenazas de la IA y permitirnos gozar de sus beneficios. De ello no se sigue, claro está, que cualquier propuesta legislativa sea positiva.
Para analizar la propuesta de Monreal, es importante empezar notando que cuando se trata de abordar la transformación que la IA representa existen dos modelos principales.
Uno de ellos es el basado en códigos voluntarios de conducta. Por ejemplo, siguiendo la inercia de su tratamiento a las grandes empresas digitales, Estados Unidos ha optado por apelar a la capacidad de autorregulación y autovigilancia de las compañÃas que desarrollan esta tecnologÃa. Aunque esto podrÃa cambiar muy pronto, éste es el enfoque adoptado hasta el momento por nuestros vecinos del norte.
El otro modelo disponible se basa en el establecimiento de una regulación que determine lo que es permisible, las sanciones por no cumplir con el marco normativo vigente y los órganos capaces de vigilar, auditar y limitar la forma en que la inteligencia artificial se utiliza. Ãste es el enfoque adoptado por la Unión Europea (UE), que a finales del año pasado aprobó una ley que regula la IA mediante un sistema basado en reglas adecuadas de acuerdo con cada uno de los niveles en una escala de riesgo.
El proyecto de Ricardo Monreal, en contraste con un proyecto presentado por el legislador panista Ignacio Loyola Vera en 2023, sigue el segundo de estos modelos.
Me parece que ello es, de entrada, una buena noticia. Y es que existe un importante consenso de que el modelo de códigos voluntarios de conducta ha fracasado rotundamente en el pasado, pues sólo ha beneficiado a las grandes corporaciones. Dado el tamaño de lo que está en juego, apostar por los códigos de conducta serÃa tan irresponsable como ingenuo.
Pero lo planteado por Monreal tiene omisiones destacables que tendrÃan que ser subsanadas. Para efectos de este análisis, dividiré estas omisiones en tres lÃneas principales.
La primera tiene que ver con el alcance de lo que se prohÃbe. La iniciativa de Monreal propone prohibir sistemas capaces de:
1. Alterar el comportamiento mediante técnicas subliminales para causar daño fÃsico o psicológico.
2. Explotar vulnerabilidades de grupos especÃficos para alterar su comportamiento de manera que cause daño.
3. Evaluar y clasificar a las personas basándose en su conducta social o caracterÃsticas personales que resulten en daño.
4. Identificación biométrica remota sin consentimiento, excepto en casos justificados de interés público o seguridad nacional.
5. Alterar archivos de voz o imagen sin autorización para modificar su contenido original. Pros y contras de la IA. Foto: Freepik.
Los puntos anteriores son todos valiosos y, por ende, deben ser preservados. Pero también son destacables sus ausencias. Por ejemplo, la prohibición en el punto 2 de explotar la conducta social o a sus caracterÃsticas personales, o de su personalidad, no incluye, como lo hace la ley de la UE, la prohibición de âsistemas categorización biométrica que utilizan caracterÃsticas sensibles como creencias polÃticas, religiosas, filosóficas, orientación sexual y razaâ.
Dado que es evidente que uno puede categorizar sin explotar, un marco que busca evitar la regulación no es suficiente para evitar la categorización de millones de personas. Además, un aspecto positivo de la ley de la UE es que es explÃcita en lo que respecta a cuáles son las caracterÃsticas que considera sensibles, algo que de momento no hace la iniciativa mexicana.
También es problemático el punto 4, que menciona que se prohÃbe la identificación biométrica remota, pero no alude, como lo hace la ley de la UE, a la prohibición de la extracción indiscriminada de imágenes faciales de internet.
Esto es importante, pues las fotos, videos y audios de millones de mexicanas y mexicanos están abiertamente disponibles en redes sociales y podrÃan ser empleadas, sin su consentimiento, por grandes empresas tecnológicas para alimentar y entrenar sus modelos.
La segunda lÃnea de omisiones destacable en la propuesta de Monreal, y también la más notable, se encuentra en su sección dedicada a las âobligaciones de los proveedores de sistemas de inteligencia artificial de alto riesgoâ. Es decir, con las obligaciones de las empresas que usan IA permitida, pero con un potencial altamente disruptivo.
En este rubro, la propuesta parece dar un giro hacia el método basado en códigos voluntarios de conducta, pues plantea que es responsabilidad de las empresas:
i. Contar con un sistema de gestión de calidad
ii. Elaborar y difundir la documentación técnica del sistema
iii. Cuando estén bajo su control, conservar los archivos de registro que sus sistemas generen automáticamente
iv. Asegurarse de que los sistemas sean sometidos a los procedimientos de evaluación y control humano que determine la autoridad competente antes de su introducción en el mercado o puesta en servicio
v. Cumplir con las obligaciones de registro ante la autoridad competente
vi. Las demás previstas en la presente Ley y su Reglamento
Mientras que la UE establece que estas empresas deberán ser sujetas a una evaluación de impacto sobre derechos humanos fundamentales, y obligaciones para obtener acceso a su mercado, nótese que el proyecto mexicano basa su contención de riesgos graves en generalidades o buenas voluntades.
En este sentido la ley propuesta por Monreal requiere un viraje decisivo al enfoque europeo. Para dejar menos margen de maniobra a las grandes corporaciones, este viraje podrÃa complementarse con un acuerdo regulatorio con este bloque, similar al recientemente firmado por Estados Unidos y Reino Unido.
Finalmente, la última lÃnea de omisiones en la propuesta del senador Monreal abarca lo relativo a su vigilancia. En su artÃculo 6, el proyecto menciona la creación de âuna Comisión Nacional de Inteligencia Artificial, como órgano consultivo del Instituto Federal de Telecomunicaciones, quien designará para integrarla a cinco cientÃficos de reconocido prestigio en materia de desarrollo tecnológico y tecnologÃas de la información. Los asà designados lo serán de forma honorÃficaâ.
La idea de una comisión independiente es sensata. La forma en que ésta se plantea en la iniciativa de Monreal representa un avance con respecto a la propuesta hecha por el legislador panista Ignacio Loyola Vera, que proponÃa integrar a diputados y empresarios a consejo.
Pero esta comisión sigue estando mal concebida. La idea de un grupo de âcientÃficosâ cierra la puerta a personas expertas en ética de la inteligencia artificial, una rama de la filosofÃa que actualmente tiene un peso enorme en las decisiones de reguladores y desarrolladoras alrededor del mundo.
Ãste es el caso, porque no es lo mismo saber de tecnologÃa o de ciencia que de sus implicaciones éticas. Por ejemplo, Mark Zuckerberg o Elon Musk saben mucho de tecnologÃa, pero muy poco de ética. Para que la tecnologÃa tenga efectos sociales y humanos positivos, ambas, tecnologÃa y ética, deben caminar siempre de la mano. Y esto es algo que el regulador mexicano no debe nunca perder de vista. Musk. ¿Y la ética? Foto: Ebrahim Noroozi/AP.
También es un error plantear que las personas que pertenecerán a este consejo lo harán de forma âhonorariaâ. Apelar a este esquema, y no a personas trabajando remuneradas y de tiempo completo, es inconsistente con el tamaño de las empresas que se busca regular a través de la iniciativa y con las razones urgentes que generaron su existencia.
Es momento de hacer un corte de caja. Hemos visto que el proyecto de ley presentado por Ricardo Monreal en dÃas pasados está, en buena medida, basado en el modelo adecuado y, por ende, representa un paso en la dirección correcta. También vimos que este proyecto tiene omisiones importantes que merecen ser tomadas en cuenta.
Considerando la magnitud de lo que está en juego, lo que procede es subsanar las deficiencias de este proyecto siguiendo. Esto es posible siguiendo a cabalidad el espÃritu regulatorio y de derechos humanos que caracterizan al modelo implementado por la Unión Europea. No hacer estas modificaciones o descartar todo el documento por intrigas partidistas serÃa tan inexcusable como ridÃculo.
_______________________________
*Profesor Asociado de FilosofÃa en la Universidad de Nottingham, Reino Unido.
X/Twitter: @asalgadoborge