[entretien réalisé le 12/02/2024]
Israël est généralement associé au bloc euro-atlantique dont vous étudiez les discours de justifications de la « guerre contre le terrorisme ». C’est d’ailleurs au nom de la guerre contre le terrorisme qu’Israël bombarde depuis plusieurs mois le territoire de Gaza avec l’aide d’Habsora, un logiciel utilisant des technologies d’IA. Comment une technique, celle des IA, rencontre-t-elle une pratique sécuritaire, celle de la guerre contre le terrorisme ?
Il faut commencer par dire que la question des objectifs de l’opération israélienne à Gaza fait débat. S’agit-il là d’une opération contre-terroriste à proprement parler, c’est-à-dire d’une opération dont l’objectif serait de détruire le Hamas pour prévenir des attentats futurs ou d’une opération de nettoyage ethnique, voire d’un génocide ? Dans son avis du 26 janvier 2024, la Cour Internationale de Justice a relevé que de nombreux éléments plaident pour la seconde interprétation. Ces deux hypothèses ne sont cependant pas contradictoires. Les guerres sont des politiques publiques comme les autres. Elles sont portées par des groupes d’acteurs aux intérêts et visions du monde hétérogène. En d’autres termes, l’interprétation selon laquelle l’opération militaire à Gaza serait une entreprise génocidaire n’invalide pas celle selon laquelle certains membres de l’appareil de sécurité israélien l’envisageraient, aussi, comme une opération contre-terroriste. Je vais donc retenir cette hypothèse pour répondre à votre question au sujet de l’IA.
Israël a bombardé Gaza à plusieurs reprises au cours des vingt dernières années sans jamais parvenir à éliminer les groupes qu’il qualifie de « terroristes ». Cet échec s’ajoute à celui des États-Unis, du Royaume-Uni et de la France dans leurs propres guerres contre-terroristes en Afghanistan, en Irak et au Sahel. L’IA arrive donc à point nommé pour les partisans de la guerre contre le terrorisme. Ils peuvent se dire : « OK, cela n’a pas bien marché jusqu’à présent, mais nous avons aujourd’hui un nouvel outil efficace ». Ils peuvent d’autant plus facilement s’en convaincre que l’IA et la guerre contre le terrorisme reposent sur une logique similaire. Dans ce type de guerre, on n’est jamais certain qu’une personne qui ne porte pas d’arme à l’instant T ne va pas devenir un terroriste à T+1. On peut seulement estimer la probabilité que ce soit le cas. Or, l’IA permet d’intégrer cette logique probabiliste. Habsora peut estimer, par exemple, qu’il existe une probabilité de 80 % qu’un militant du Hamas se trouve dans tel ou tel immeuble. Le logiciel peut même estimer la probabilité de faire un nombre donné de dégâts collatéraux. C’est également intéressant car les doctrines de la contre-insurrection énoncent qu’il faut maitriser ces derniers pour ne pas faire trop de vocations terroristes. Sur le papier, l’IA semble donc épouser la grammaire probabiliste de la guerre contre le terrorisme. Je ne suis pas surpris de l’enthousiasme qu’elle suscite chez les partisans de ce type de guerres.
L’IA est censée permettre de maitriser le nombre de « dégâts collatéraux ». Ce n’est pas la première fois qu’une technique est utilisée comme un argument moral dans le cadre de la guerre contre le terrorisme. On se souvient des « frappes chirurgicales » où des bombes guidées étaient présentées comme plus « civilisées ». Est-ce qu’aussi ici, avec les IA, on veut faire passer une technique comme plus « humaine », plus « juste », car décidée par la machine ?
La notion-clé pour comprendre cette logique est celle de « technologie morale », que j’emprunte à Eyal Weizman. Cette notion ne dit rien de la moralité d’une technologie en soi (pour les victimes, une technologie guerrière n’est jamais morale). Elle désigne les technologies que leurs utilisateurs investissent d’une valeur morale. Eyal Weizman cite l’exemple de FAST-CD, un logiciel d’évaluation des « dégâts collatéraux » utilisé par les armées de l’espace euro-atlantique dans les années 2000. Il indiquait aux pilotes de chasseurs-bombardiers et opérateurs de drones quels sont les risques (en probabilité) de causer un nombre X de « dégâts collatéraux » en fonction de la distance du point d’impact. Ce type de technologie contribue à la construction de la croyance dans la moralité d’une manière de faire la guerre qu’Eyal Weizman appelle « humanitaire » et moi « libérale » (peu importe), une manière de faire la guerre qui consiste à ne viser que des cibles militaires tout en calculant le nombre de civils tués. Les pilotes et les opérateurs de drones qui utilisent cette technologie se disent qu’ils ne font pas la guerre de la même façon que les terroristes. Ni même que leurs prédécesseurs qui larguaient des bombes incendiaires sur Dresde et Tokyo en 1945. Les bombes dotées de système de guidage sont un autre exemple de technologie morale. Elles matérialisent la possibilité de ne viser que des cibles combattantes. Or ce raisonnement n’est pas propre au champ militaire : dans l’idéologie libérale de la guerre contre le terrorisme, une bombe qui vise un objectif militaire est jugée plus morale qu’un attentat terroriste, même si la bombe en question fait bien plus de morts civils. On le voit aujourd’hui à propos d’Israël/Palestine. Les partisans de la guerre israélienne à Gaza ne nient pas le fait qu’elle fait au moins vingt fois plus de victimes civiles que les attaques du 7 octobre 2023. Par contre, ils prétendent qu’Israël tuerait de manière morale alors que le Hamas commettrait des atrocités.
L’IA peut donc tout à fait entrer dans cette catégorie de technologie que ses utilisateurs ou partisans investissent de valeurs morales. Pour en être sûr concernant Habsora, il faudrait réaliser des entretiens avec le commandement militaire israélien ou bien avec les pilotes qui l’utilisent. Si leur logique n’est pas ou pas seulement génocidaire, il se pourrait qu’ils intériorisent l’histoire suivante : « Contrairement au Hamas, nous ne tuons pas de manière indiscriminée ; un logiciel nous indique des cibles où se trouvent des combattants ennemis et nous ne visons qu’eux ».
Quoi qu’il en soit, ce discours sur la moralité des technologies guerrières des pays de l’espace euro-atlantique passe sous silence deux points. Premièrement, il efface la voix des victimes et de leurs proches. Pour ces derniers, la question de savoir si un parent ou un fils a été tué de manière terroriste ou parce qu’un logiciel a estimé qu’il constituait un dégât collatéral acceptable est dépourvue de sens. Hannah Arendt nous a expliqué pourquoi : pour les victimes, tout le sens de la violence est inclus dans l’action violente, quels que soient les raisonnements des bourreaux. Deuxièmement, ce discours valorise ce qu’on appelle le jus in bello – c’est-à-dire le droit sur la manière de faire la guerre -, alors que le droit relatif à la guerre comporte un autre pilier : le jus in bellum, le droit d’entrer en guerre ou non. Or l’immense majorité des guerres contre-terroristes sont illicites de ce point de vue.
Les démocraties libérales affirment souvent que les morts de civils innocents lors des bombardements sont accidentelles. Qu’en est-il avec Habsora, sachant que le logiciel prend en compte une probabilité de « dommages collatéraux » ? Est-il plus difficile de prétendre ici que les civils meurent par accident ?
D’abord, et indépendamment de Habsora, il faut savoir que les médias nous induisent en erreur quand ils suggèrent qu’il y aurait deux manières de tuer des civils dans le cadre des guerres aériennes : une manière intentionnelle comme lors des bombardements de Dresde, Tokyo, Hiroshima ou Nagasaki, et une manière accidentelle comme quand on vise une cible combattante et on constate, après coup, que des civils sont morts aussi. En réalité, il existe trois manières de tuer des civils en les bombardant : les deux que je viens de citer et une troisième où la mort des civils n’est ni spécifiquement intentionnelle, ni accidentelle.
Pour que vous compreniez, il faut que j’introduise une notion technique : celle de « valeur seuil des victimes non combattantes » (« non-combattant casualty cut-off value » en anglais). C’est le nombre de civils qu’un pilote ou opérateur de drone est autorisé à tuer pour une cible militaire donnée. On sait par exemple qu’en 2003 – 2004, pour les cibles dites de « haute valeur » en Irak, cette valeur était de 30. Cela veut dire que les pilotes de l’US Air Force pouvaient tuer jusqu’à 29 civils irakiens s’ils avaient identifié une telle cible. Cette notion en apparence technique nous dit quelque chose de très important. Quand cette valeur seuil des victimes non-combattantes est de zéro, la mort des civils est accidentelle. Mais dès lors que la valeur est de 1 ou plus, la mort des civils n’est ni spécifiquement intentionnelle (on ne les vise pas) ni accidentelle : c’est une conséquence calculée et connue du bombardement.
J’en viens à Habsora… il s’agit donc d’un logiciel qui, grâce à l’IA, génère des cibles en traitant une quantité massive de données issues, notamment, de la surveillance aérienne de Gaza. On ne sait pas comment Habsora est paramétré. En admettant qu’il ne s’agisse pas d’une entreprise génocidaire (spécifiquement dirigée contre les civils), tout indique que la valeur seuil des victimes non-combattantes est très élevée. En effet, environ 50 enfants et adolescents meurent chaque jour, depuis six mois, sous les bombes israéliennes. Il faut ajouter à cela la destruction massive des infrastructures civiles et des habitations, laquelle engendre ce que Rob Nixon appelle une « violence lente ». Les gens meurent à petit feu.
Une autre justification de la Guerre contre le terrorisme consiste à prétendre qu’elle s’inscrit dans le cadre du droit international. L’usage des IA dans le cadre militaire et de Habsora en particulier respecte-t-il le droit international humanitaire ?
Il est difficile de répondre à cette question car on ne sait pas exactement comment Habsora est paramétré. L’enquête du magazine israélien +972 suggère que le commandement israélien utilise un subterfuge. Habsora serait paramétré pour proposer un maximum de cibles militaires se trouvant dans des infrastructures civiles, typiquement l’étage d’un immeuble où réside probablement un combattant du Hamas et dont on sait que la destruction entrainera l’effondrement de l’immeuble dans son ensemble. Si cela est vrai, d’un point de vue formel, les civils ne seraient pas visés – conformément à un principe cardinal du droit international humanitaire — mais la mort des civils pourrait, elle, être planifiée, ce qui est criminel.
La question de savoir si Israël perpètre un génocide, un crime contre l’humanité ou des crimes de guerre à Gaza est importante. Les ONG de défense des droits humains et les États sensibles à la cause palestinienne (comme l’Afrique du Sud) ont raison d’utiliser cet instrument. Il faut tout faire pour arrêter les massacres en cours et la violence lente que j’évoquais plus haut. Cependant, je pense qu’il ne faut pas faire du droit l’alpha et l’oméga de l’évaluation morale d’une violence guerrière. Rappelons que le droit international humanitaire n’interdit pas de tuer des civils, seulement de les viser et d’en tuer un nombre disproportionné par rapport à l’effet militaire recherché, ce qui est très subjectif. Les États capables de produire des technologies comme Habsora peuvent mimer le respect du droit international humanitaire pour, concrètement, massacrer une population civile et détruire ses lieux de vie. Imaginons qu’une cour stipule que les bombardements israéliens à Gaza sont licites. Cela ne changerait rien au fait que 150 personnes, dont 50 enfants et adolescents, meurent, chaque jour, dans ces bombardements.
Ce même article de +972 désigne Habsora comme « une usine d’assassinats de masse ». Est-ce que le fait que le nombre de cibles — et donc de frappes — soit décuplé par les capacités de traitement de l’IA, entraine la mort de plus de civils ?
Dans cet article, l’ancien chef d’État-major des forces armées israéliennes explique qu’avant l’IA, le commandement israélien était capable de produire, grâce au renseignement humain, une cinquantaine de cibles par an et que Habsora en fournit une centaine par jour ! Donc effectivement, ce type de logiciel décuple de manière inouïe le nombre de cibles. Il ne peut que faciliter l’augmentation du volume de la violence.
Quel impact l’usage de l’IA et les discours qui l’accompagnent ont-ils sur la représentation des « cibles », c’est-à-dire des gens qui reçoivent les bombes, qui sont blessés, qui meurent ? Est-ce que cela participe à cette idée de valeur différenciée des vies humaines que vous analysez dans votre livre ?
Je ne reviens pas sur ce que j’ai expliqué tout à l’heure au sujet des technologies morales. Il y a, je pense, un autre élément. Le sociologue Max Weber, s’il était encore vivant aujourd’hui, analyserait sans doute le développement de l’IA à la guerre comme un nouvel épisode d’un processus de rationalisation de la manière de faire la guerre. Ce processus a commencé avec le développement de ce que Christophe Wasinski appelle « le sens commun stratégique », c’est-à-dire une manière de se représenter la guerre comme une activité sociale qu’on pourrait appréhender de manière géométrique ou logique. Ce processus de rationalisation s’est accéléré avec la bureaucratisation des organisations militaires à partir du 17e-18e siècle, puis s’est poursuivi de la fin du 19e au début du 20e siècle avec l’industrialisation et la production d’armes permettant de tuer depuis de grandes distances. Tout le processus de rationalisation de la guerre introduit des interfaces entre combattants ou entre bourreaux et victimes. Le concept sociologique qui décrit le mieux cela est celui de réification, c’est-à-dire de transformation d’un être humain en chose. L’IA participe certainement à ce grand mouvement de réification.
Les IA sont souvent présentées comme des technologies plus morales parce qu’elles ne feraient pas d’erreur ou seraient neutres. Est-ce que cela redouble la nécessité d’engager un débat sur leurs usages dans un cadre militaire ?
J’ai commencé à répondre à cette question en montrant l’impact de cette technologie sur la mortalité des civils. Il convient d’aborder un autre point : l’hypothèse de l’automatisation totale. Nous n’y sommes pas encore : les IA comme Habsora se contentent de générer des cibles que le commandement décide, ou non, d’éliminer. Il serait cependant possible de franchir un nouveau pas et de produire des engins complètement automatisés qui décideraient aussi de l’ouverture du feu. L’enjeu éthique et démocratique est criant et il faut discuter de cette évolution. C’est d’ailleurs un enjeu qui dépasse largement la question de la guerre. Tout indique qu’il serait sage de faire une pause dans le développement des IA et de débattre de leur bienfondé et de la régulation de leurs usages.
Ces discours sur l’automatisation de la guerre vont jusqu’au fantasme d’une guerre où on laisserait pour ainsi dire les robots se battre entre eux. Est-ce que c’est une tentative de faire oublier que la guerre continue de provoquer morts et souffrance ?
Cette histoire de guerre sans mort renvoie moins à la question des robots (ou de l’automatisation) qu’à celle de la « mécanisation ». On appelle ainsi le fait d’utiliser des engins – automatisés ou non – qui permettent de faire la guerre en exposant le moins possible ses propres troupes. Le degré maximal de mécanisation est atteint avec les drones mais les bombardements à l’aide de chasseurs-bombardiers constituent, aussi, une manière ultra-mécanisée de faire la guerre. En France par exemple, aucun pilote ou navigateur n’est mort en opération depuis les années 1970. Or, il se trouve qu’à volume de violence et intentions égales, les guerres aériennes font plus de morts civils que les interventions terrestres (c’est une des raisons pour lesquelles on ne fait pas la guerre aux terroristes avec des drones ou des chasseurs-bombardiers quand ceux-ci se trouvent à Paris ou Washington). Cette plus forte létalité des guerres aériennes a fait dire au politiste Martin Shaw que le fait d’y avoir recours conduit à « transférer » les risques des combattants occidentaux vers les civils non-occidentaux. En d’autres termes, le fait de poursuivre l’objectif de la guerre zéro mort de notre côté conduit à augmenter le nombre de morts (civils) de l’autre côté. Vous évoquez un scénario de guerre symétrique où deux armées totalement mécanisées (avec des robots) se feraient la guerre. Cela aboutirait à un double transfert (symétrique) de risques des combattants vers les civils.
Au-delà du discours marketing des marchands de ces technologies, la guerre high-tech menée grâce à l’IA est-elle synonyme d’efficacité sur le terrain militaire ?
On n’est qu’au début du développement de cette technologie mais il faut bien constater que dans les deux guerres que nous avons sous les yeux – celle en Ukraine et celle à Gaza‑, le résultat n’est pas brillant. De nombreuses armes que les pays de l’OTAN fournissent à l’Ukraine comportent des technologies basées sur l’IA. Or ce qui semble décisif à l’heure actuelle, c’est plutôt la bonne vieille artillerie. C’est parce que la Russie produit entre 5 à 10 fois plus de munitions d’artillerie que l’OTAN que l’Ukraine se trouve aujourd’hui en si mauvaise posture. L’autre exemple, c’est donc l’utilisation par Israël de Habsora. Si le but n’est pas de détruire Gaza mais de neutraliser le Hamas, la valeur ajoutée de l’IA semble là encore très faible. Après cinq mois de guerre ultra intensive, le Hamas résiste encore. Pour l’instant, l’IA ne fait donc pas signe de grands succès militaires par rapport aux « vieilles » manières de faire la guerre que sont d’un côté de l’usage massif de l’artillerie et de l’autre la guérilla…
[ajouté le 24/04/2024]
Depuis la parution de cet entretien, une nouvelle enquête du magazine +972 décrit plus en détail le fonctionnement et les usages des IA par l’armée israélienne à Gaza. Est-ce que les informations de +972 confirment des pistes que vous évoquiez il y a quelques mois ? »
Oui, la deuxième enquête de +972 confirme toutes ces analyses. Elle apporte aussi une précision quant à la « valeur seuil des victimes non-combattantes », à savoir le nombre de civils que l’armée israélienne s’autorise à tuer pour une cible militaire donnée. D’après les informations de +972, ce nombre était au début de la guerre de quinze civils pour un simple militant du Hamas et de cent civils pour un cadre du Hamas.
Pour aller plus loin
Références citées dans l'entretien :
Mathias Delori, Ce que vaut une vie - Théorie de la violence libérale, Amsterdam, 2021.
Rob Nixon, "Of Land Mines and Cluster Bombs." Cultural Critique 67, 2007, pp 160-74.
Martin Shaw, The New Western Way of War -Risk Transfer and Its Crisis in Iraq, Polity Press, 2006.
Christophe Wasinski, Rendre la guerre possible - La construction du sens commun stratégique, Peter Lang, 2010.
Eyal Weizman, The Least of All Possible Evils: Humanitarian Violence from Arendt to Gaza, Verso, 2012.
Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».