menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

L’IA ne rendra pas la guerre plus éthique

8 0
24.03.2026

Le bombardement par les États-Unis d’une école dans le sud de l’Iran a fait plus de 150 morts, en majorité des écolières âgées de 7 à 12 ans.

Dans la foulée, nous avons appris l’utilisation par les États-Unis du système intelligent Maven pour sélectionner plus de 1000 cibles militaires en 24 heures à partir des données collectées par l’entreprise Palantir et grâce au système d’intelligence artificielle (IA) de la jeune pousse Anthropic⁠2,3. Une question légitime⁠4 s’est alors posée : l’IA a-t-elle été utilisée pour sélectionner l’école pour filles de Minab ?

Les tenants de l’utilisation militaire de l’IA sont fermes : elle permettrait la réduction de victimes civiles, limiterait les pertes militaires et rendrait la guerre plus éthique. Néanmoins, en cherchant à rendre la guerre plus vertueuse grâce à des outils décrits comme plus précis et impartiaux, nous nous dirigeons vers une normalisation de la guerre et de sa violence, comme nous l’a déjà montré l’administration Trump, du Venezuela à l’Iran.

La guerre peut-elle être éthique ?

En droit et en philosophie politique, la guerre est pensée en deux étapes. Le droit de la guerre (jus ad bellum) détermine si un État ou une entité a une « juste cause » pour entrer en guerre. À cette étape, nous sommes concernés par la légitimité de l’acte de guerre. Ensuite, le droit dans la guerre (jus in bello) fait référence aux règles qui régissent les méthodes de guerre : ces règles dictent les types d’armes que l’on peut utiliser, les cibles que l’on peut frapper et la force que l’on peut employer.

L’utilisation de l’IA dans la guerre tombe dans le droit de la guerre. Les tenants de son utilisation la légitiment en soutenant qu’elle serait moins faillible que l’intelligence humaine.

La machine serait plus objective, puisqu’elle serait débarrassée des biais qui empêchent certains soldats de faire la distinction entre un combattant et un civil, une différence essentielle en droit international.

En somme, l’IA offrirait la capacité technique de menacer et de recourir à la violence en faisant le moins de victimes civiles possible. Est-ce empiriquement vrai ?

L’IA est faillible et programmée pour l’être

Il est nécessaire d’établir deux faits. L’IA est faillible et certains systèmes sont programmés au détriment des victimes civiles. Le cas d’Israël et de l’utilisation des systèmes d’IA Gospel et Lavender à Gaza le démontre bien⁠5. Ses systèmes d’IA à vocation militaire ont été utilisés à Gaza depuis 2023. Depuis, plus de 70 000 personnes ont été tuées, dont une majorité de civils⁠6. Leur utilisation n’a pas permis de limiter les victimes civiles ni de rendre la violence plus éthique.

Gospel lie des bâtiments à de potentielles cibles militaires. Ces cibles peuvent être des maisons ou des infrastructures militaires, mais également des immeubles résidentiels dans lesquels résident des dizaines de personnes.

Lavender désigne directement des militants du Hamas. Dans le cadre de sa programmation, la définition d’un militant a été élargie à toutes les personnes ayant interagi avec le Hamas pour des raisons civiles : des policiers, des journalistes, des infirmières ou encore des médecins.

Les enquêtes du magazine en ligne +972 démontrent également que Lavender peut se tromper : 10 % de ses cibles sont en réalité des civils⁠7.

La programmation même de Lavender et de Gospel ouvre la porte à des erreurs et les facilite par une définition élargie – et erronée – du combattant. Par la simple remise en cause du statut de civil et de non-combattant, qui est essentiel en droit international, l’État d’Israël s’est volontairement distancié du principe même de l’éthique.

En somme, l’IA est un outil. Les États et les armées la manipulent en fonction de leurs objectifs tactiques et stratégiques, souvent sans considération pour les pertes civiles. De plus, au même titre qu’un être humain, l’IA comporte des biais racistes et sexistes qui tronquent ses analyses.

En définitive, la guerre n’est pas vertueuse. Elle est violente, sanglante et traumatise des milliers de personnes chaque année. Aucun outil, aussi précis et technique soit-il, ne peut changer sa nature : sans pitié envers la vie humaine.


© La Presse