L’algoritmo usato per dare la caccia a Hamas causa danni collaterali elevati. Lo scontro fra moralisti ed entusiasti

Le società combattono le guerre con le stesse modalità con cui generano ricchezza, scrivevano nel 1980 Alvin e Heidi Toffler, i sociologi-futurologi, come amavano definirsi, che delinearono i contorni della cosiddetta “Terza ondata”, l’èra delle macchine. E da Gaza, a partire dal 7 ottobre, si sta plasmando un pezzo di questa nuova epoca, un “anno zero” dei conflitti armati. La settimana scorsa, il giornalista israeliano Yval Abraham ha pubblicato sul magazine +972 un lungo reportage sull’impiego massiccio dell’intelligenza artificiale a Gaza da parte di Tsahal. Il software usato si chiama Levander e il suo utilizzo, raccontato nei dettagli attraverso le testimonianze di sei diversi funzionari israeliani, ha interessato soprattutto la prima fase della controffensiva nel nord della Striscia. Abraham racconta come sia un software a selezionare una shortlist di bersagli al suolo da colpire. La macchina ha imparato a farlo grazie all’uomo, che con un algoritmo l’ha addestrata a discernere quale sia un obiettivo nemico da quelli che non lo sono. Questo almeno in teoria, perché gli errori, secondo le informazioni rivelate dagli stessi funzionari israeliani, sono tollerati. E’ previsto che sia l’uomo – un militare – a prendersi la responsabilità finale di decidere se colpire il bersaglio individuato dalla macchina. Ed è qui l’elemento di novità svelato dall’inchiesta: lo scarso tempo a disposizione per ordinare l’attacco, appena venti secondi, “giusto il tempo di capire se il bersaglio sia di sesso maschile”. “All’uomo è lasciato un lasso di tempo minimo. Di conseguenza, il rischio di causare vittime collaterali è elevato”, commenta al Foglio Alessandra Russo, che studia l’impiego dell’IA nei conflitti armati alla Cattolica di Milano. “Si parla di un margine di errore tollerato del 10 per cento, che è un valore altissimo”. La prassi usata da Tsahal, spiegano i funzionari israeliani, consiste nell’aspettare che il terrorista individuato dalla macchina rientri in casa. “E’ più semplice colpire un obiettivo nella sua abitazione privata”, dicono i funzionari israeliani. In questo modo, il sistema denominato “Where’s daddy?” finiva per neutralizzare l’obiettivo, ma anche la sua famiglia, moltiplicando le vittime. Secondo l’inchiesta, Tsahal sarebbe arrivato a una tolleranza di cento civili uccisi per ogni terrorista di Hamas colpito.

Le inchieste, gli editoriali, le newsletter. I grandi temi di attualità sui dispositivi che preferisci, approfondimenti quotidiani dall’Italia e dal Mondo

Sono nato a Latina nel 1985. Sangue siciliano. Per dimenticare Littoria sono fuggito a Venezia per giocare a fare il marinaio alla scuola militare "Morosini". Laurea in Scienze internazionali e diplomatiche a Gorizia. Ho vissuto a Damasco per studiare arabo. Nel 2012 sono andato in Egitto e ho iniziato a scrivere di Medio Oriente e immigrazione come freelance. Dal 2014 lavoro al Foglio.

QOSHE - Quei maledetti 20 secondi. Il dilemma della guerra dell'IA a Gaza - Luca Gambardella
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Quei maledetti 20 secondi. Il dilemma della guerra dell'IA a Gaza

6 1
09.04.2024

L’algoritmo usato per dare la caccia a Hamas causa danni collaterali elevati. Lo scontro fra moralisti ed entusiasti

Le società combattono le guerre con le stesse modalità con cui generano ricchezza, scrivevano nel 1980 Alvin e Heidi Toffler, i sociologi-futurologi, come amavano definirsi, che delinearono i contorni della cosiddetta “Terza ondata”, l’èra delle macchine. E da Gaza, a partire dal 7 ottobre, si sta plasmando un pezzo di questa nuova epoca, un “anno zero” dei conflitti armati. La settimana scorsa, il giornalista israeliano Yval Abraham ha pubblicato sul magazine 972 un lungo reportage sull’impiego massiccio dell’intelligenza artificiale a Gaza da parte di Tsahal. Il software usato si chiama Levander e il suo utilizzo,........

© Il Foglio


Get it on Google Play