menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Il caso Anthropic. La questione non è più se l'AI entrerà nella guerra, ma come

21 0
02.03.2026

Chatbot e missili: chi controlla l’algoritmo? Lo scontro tra l'azienda di Dario Amodei e il Pentagono sull’uso di Claude rivela un cambio di fase: l’intelligenza artificiale è già integrata nelle operazioni militari Usa. Il nodo ora è politico e riguarda chi decide i limiti del codice

Nell’arsenale militare americano è entrata a pieno titolo anche l’intelligenza artificiale generativa. Lo scontro tra Anthropic e il Pentagono della scorsa settimana sull’impiego senza restrizioni del chatbot Claude a fini militari è più di una disputa contrattuale: è il segnale che l’integrazione dell’AI nelle strategie belliche non è più sperimentale, ma strutturale. Claude è già stato utilizzato nell’attacco americano di gennaio al Venezuela, sulla base di un contratto da 200 milioni di dollari firmato nel 2025 tra la società e il Dipartimento della Difesa. Una notizia che ha scosso le coscienze dei dipendenti di Anthropic, che hanno protestato e spinto il fondatore Dario Amodei a intervenire. L’italo-americano ha tracciato una linea rossa sull’impiego militare di Claude: niente sorveglianza di massa e niente armi completamente autonome in grado di decidere se e chi colpire senza supervisione umana. A suo giudizio, un simile impiego dell’AI in questi ambiti non sarebbe ancora sicuro e rischierebbe di........

© Il Foglio