menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Washington vs. Anthropic

4 0
friday

Al mismo tiempo que Washington iniciaba una guerra en Medio Oriente, el Pentágono abría otro frente de batalla. El escenario no son las imponentes montañas de Irán, sino las empinadas colinas de San Francisco. Las municiones no son bombas y cohetes, sino contratos y algoritmos. Y aunque, a primera vista, se trata de un choque de visiones éticas sobre la tecnología, su desenlace, a la postre, también puede costar vidas humanas.

En la ciudad californiana queda la sede de Anthropic, una de las firmas líderes en el campo de la inteligencia artificial (IA). Tan poderosos son sus modelos informáticos que el Pentágono estaba en proceso de adquirir servicios por un valor de 200 millones de dólares. Los usaría para examinar caudales de datos e imágenes –volúmenes que sobrepasan la capacidad humana de análisis–, con el fin de incrementar la efectividad bélica de Estados Unidos. Ya habían demostrado su utilidad en la operación para capturar a Nicolás Maduro.

Anthropic, sin embargo, puso dos condiciones: que la tecnología no se usara para vigilar a ciudadanos estadounidenses ni para desarrollar armas autónomas. El Gobierno no las aceptó. Adicionalmente, declaró a la empresa “un riesgo para la cadena de suministro”, lo que la excluye de contratar con el Departamento de Guerra. Otras dos firmas, OpenAI y xAI, cerraron negociaciones con el Pentágono, aprovechando el castigo a su competidor.

Como se ve, es un pulso de enorme trascendencia. Más allá de la disputa jurídica, que Anthropic ha anunciado que librará en las cortes estadounidenses, en este episodio confluyen varios dilemas que tendrán un impacto decisivo en el futuro de la IA y el futuro de la guerra, y que despierta muchos interrogantes.

La IA debe rodearse de un marco regulatorio que impida su abuso, más cuando están de por medio asuntos de guerra.

¿Cuánto margen tienen los creadores de los modelos de IA para limitar el alcance de su uso? ¿Prima la voluntad de un gobierno, por haber sido democráticamente elegido, sobre las objeciones de conciencia de un empresario privado? ¿Cuán responsables son los diseñadores de los sistemas de IA de las consecuencias de su empleo en cuestiones de vida o muerte?

Este tipo de cuestionamientos siempre han existido con relación a ciertas tecnologías. La fisión nuclear, por ejemplo, puede usarse para producir electricidad, pero también para fabricar bombas. Pero la inteligencia artificial es una herramienta tan versátil, aplicable a tantos campos de la acción humana, y su desarrollo es tan explosivo, que los dilemas éticos que suscita se multiplican más rápido que la capacidad de la sociedad para asumirlos.

Mientras las cortes norteamericanas dirimen este complejo caso, es razonable celebrar la decisión de Anthropic, que puso sus convicciones por encima de sus utilidades. Nadie conoce mejor los riesgos que entraña la IA que sus diseñadores. Si Anthropic halla riesgos inaceptables en el uso sin cortapisas de sus servicios, es prudente hacerle caso. Como toda tecnología poderosa, la IA debe rodearse de un marco regulatorio que impida que se abuse de ella, mucho más cuando están de por medio asuntos de guerra.

editorial@eltiempo.com


© El Tiempo