¡Qué bien, Anthropic! ¡Y qué mal! |
La que termina fue una semana movida para Anthropic. En más de un sentido, sigue siéndolo. El martes, la startup con sede en San Francisco acusó a DeepSeek, Moonshot y MiniMax -tres rivales chinas- de utilizar miles de cuentas fraudulentas para generar millones de conversaciones con su chatbot Claude con el fin de, indicó, entrenar a sus propios chatbots.
Es menester hacer aquí una pausa para decir que es la definición de ironía ver a una empresa cimentada sobre el aprovechamiento masivo de datos ajenos súbitamente preocupada por el irrespeto a la santidad sus propios procesos y resultados.
Pero justamente eso es lo que llevó a Elon Musk a decir, en su cuenta de X: “Anthropic es culpable de robar datos de entrenamiento a gran escala y ha tenido que pagar indemnizaciones multimillonarias por su robo. Esto es un hecho”.
Musk aludía, por supuesto al acuerdo de 1.500 millones de dólares al que Anthropic accedió en septiembre de 2025 para resolver una demanda colectiva por haber usado aproximadamente medio millón de libros protegidos por derechos de autor para entrenar sus modelos de IA Claude.
Y es verdad. La industria que hoy lidera Dario Amodei se construyó bajo la premisa de que “ingerir” la web completa —incluyendo libros, artículos de prensa y código protegido— es un uso legítimo para crear sistemas transformadores. La defensa de la soberanía de los pesos del modelo y de sus salidas algorítmicas choca de frente con la laxitud aplicada al recolectar el material original de entrenamiento.
Y llegamos así al viernes, cuando se venció el plazo del Departamento de Defensa de Estados Unidos para que Anthropic le permitiera utilizar su modelo Claude “como considere oportuno” so pena de enfrentarse a graves consecuencias. En esas comillas está cubiertos usos como la vigilancia masiva y las armas letales con capacidades autónomas. La firma se ha negado, lo que condujo al Pentágono a etiquetarla como un “riesgo de cadena de suministro” y se ha indicado que podría forzarla a acceder invocando la Defense Production Act.
No todas las semanas ves a una compañía de Silicon Valley pasar de ser el faro moral del sector de la IA a un descarado ladrón de propiedad intelectual y, si se le cree al Pentágono, ¿un posible traidor a la gran causa estadounidense? Pero del curso que tome este caso va a depender mucho más que su valoración en el mercado.
Con el mismo énfasis que condeno las prácticas copionas de Anthropic, aplaudo su valerosa oposición a las demandas de Washington, porque la alternativa es sencillamente distópica. Y eso, en una cotidianidad que a veces parece sacada de Black Mirror, es mucho decir.