Par Rebecca Gordon
Voici un possible scénario à considérer: une force militaire a acheté un million de drones bon marché et jetables, de la taille d’un jeu de cartes, capables de transporter chacun trois grammes d’explosifs – suffisamment pour tuer une seule personne ou, dans le cas d’une «charge creuse», percer un mur d’acier. Ils ont été programmés pour rechercher et «engager» (tuer) certains êtres humains, sur la base de caractéristiques spécifiques de «signature» comme le port d’une arme, par exemple, ou une couleur de peau particulière. Ils tiennent dans un seul conteneur d’expédition et peuvent être déployés à distance. Une fois lancés, ils volent et tuent de manière autonome sans aucune autre intervention humaine.
De la science-fiction? Pas vraiment. Cela pourrait arriver demain. La technologie existe déjà.
En fait, les systèmes d’armes létales autonomes (LAWS-lethal autonomous weapons systems) ont une longue histoire. Au printemps 1972, j’ai passé quelques jours à occuper le bâtiment de physique de l’Université Columbia à New York. Avec une centaine d’autres étudiants, j’ai dormi sur le sol, mangé des plats à emporter offerts et écouté Allen Ginsberg [1926-1997, fondateur de la Beat Generation, poète, pacifiste et bouddhiste] lorsqu’il est venu nous honorer de quelques-uns de ses poèmes improvisés. J’écrivais alors des tracts, réquisitionnant une machine Xerox pour les imprimer.
Et pourquoi, parmi tous les bâtiments du campus, avons-nous choisi celui qui abrite le département de physique? La réponse: pour convaincre cinq physiciens de la faculté de Columbia de rompre leurs liens avec le Jason Defense Advisory Group du Pentagone, un programme offrant de l’argent et des laboratoires pour soutenir la recherche scientifique fondamentale qui pourrait s’avérer utile aux efforts de guerre des Etats-Unis. Notre contestation spécifique: l’implication des scientifiques de Jason Defense Advisory dans la conception de certaines parties de ce qui était alors connu sous le nom de «champ de bataille automatisé» pour un déploiement au Vietnam. Ce système s’est avéré en effet être un précurseur des systèmes d’armes létales autonomes qui sont sur le point de devenir une partie potentiellement significative de l’arsenal des Etats-Unis.
Les premières armes (semi-)autonomes
Washington s’est affronté à un certain nombre de problèmes stratégiques dans la poursuite de sa guerre en Indochine [les Etats-Unis financent la guerre du gouvernement français en Indochine, puis engagent, de manière croissante, leurs forces militaires depuis 1955 jusqu’à 1975, avec une accentuation nette dès 1965], notamment la corruption et l’impopularité générales du régime sud-vietnamien qu’il soutenait. Cependant, son plus grand défi militaire était probablement la pénétration continue de combattants et de fournitures par le Nord-Vietnam en utilisant ce qui a été qualifié de piste Ho Chi Minh. Elle allait du nord au sud le long des frontières cambodgienne et laotienne. La piste Ho Chi Minh était en fait un réseau de routes et de chemins de terre facilement réparables [après des bombardements], de ruisseaux et de rivières, situés sous une épaisse couverture de jungle qui rendait presque impossible la détection des mouvements depuis les airs.
La réponse des Etats-Unis, développée par Jason Defense Advisory en 1966 et déployée l’année suivante, fut une tentative d’interdire ces transports en créant un champ de bataille automatisé composé de quatre éléments, analogues aux yeux, aux nerfs, au cerveau et aux membres d’un corps humain. Les yeux étaient constitués d’une grande variété de capteurs – acoustiques, sismiques, voire chimiques (pour détecter l’urine humaine) – la plupart largués par voie aérienne dans la jungle. Les équivalents nerveux transmettaient les signaux au «cerveau». Cependant, comme les capteurs n’avaient qu’une portée maximale d’environ 30 km, l’armée des Etats-Unis devait constamment faire voler des avions au-dessus du feuillage pour capter tout signal qui pourrait être déclenché par le passage de troupes ou de transports nord-vietnamiens. Les avions devaient ensuite relayer les signaux au cerveau [centre de commandement avec haute technologie]. Prévus à l’origine pour être télécommandés, ces avions avaient des performances si médiocres que des pilotes étaient généralement nécessaires.
Et ce «cerveau», une magnifique installation militaire construite en secret à Nakhon Phanom, en Thaïlande, abritait deux ordinateurs centraux IBM à la pointe de la technologie. Une petite armée de programmeurs écrivait et réécrivait le code pour les faire fonctionner, tout en essayant de donner un sens au flux de données transmis par ces avions. Les coordonnées des cibles qu’ils obtenaient étaient ensuite transmises aux avions d’attaque, qui étaient les équivalents des membres [selon l’analogie avec un corps humain]. Le groupe qui dirigeait ce champ de bataille automatisé était appelé Task Force Alpha et l’ensemble du projet portait le nom de code Igloo White [l’opération Igloo White a été menée de janvier 1968 à février 1973: elle était conçue comme une guerre électronique; elle devait remplacer l’opération Rolling Thunder, c’est-à-dire la campagne de bombardements contre le Nord-Vietnam et le Laos de mars 1965 à novembre 1968].
Il s’est avéré que l’Igloo White a été en grande partie un échec coûteux: son prix, environ un milliard de dollars par an pendant cinq ans (soit près de 40 milliards de dollars au total en dollars actuels). Le décalage entre le déclenchement d’un capteur et le largage des munitions a rendu le système inefficace. Par conséquent, la Task Force Alpha a parfois simplement bombardé des zones où un seul capteur aurait pu se déclencher. Les Nord-Vietnamiens ont rapidement compris le fonctionnement de ces capteurs et ont mis au point des méthodes pour les tromper, allant de la diffusion d’enregistrements d’allumage de camions à la mise en place de seaux d’urine.
Etant donné l’histoire des systèmes d’armes semi-automatisés tels que les drones et les «bombes intelligentes» dans les années qui ont suivi, vous ne serez probablement pas surpris d’apprendre que ce premier champ de bataille automatisé ne pouvait pas faire la distinction entre les soldats et les civils. En cela, ils n’ont fait que poursuivre une tendance qui existe depuis au moins le XVIIIe siècle et selon laquelle les guerres tuent régulièrement plus de civils que de combattants.
Aucune de ces lacunes n’a empêché les responsables du département de la Défense de considérer le champ de bataille automatisé avec admiration. Andrew Cockburn a décrit cette attitude d’adoration dans son livre Kill Chain: The Rise of the High-Tech Assassins [Picador USA, 2016], citant Leonard Sullivan, un haut fonctionnaire du Pentagone qui a visité le Vietnam en 1968: «Tout comme il est presque impossible d’être agnostique dans la cathédrale de Notre-Dame, il est difficile de ne pas se laisser emporter par la beauté et la majesté du temple de la Task Force Alpha.» On peut se demander qui ou quoi, dans un tel temple, devait être vénéré?
***
La plupart des aspects de ce champ de bataille «automatisé» de l’ère du Vietnam nécessitaient en fait une intervention humaine. Des êtres humains installaient les capteurs, programmaient les ordinateurs, pilotaient les avions et lâchaient les bombes. Dans quel sens, alors, ce champ de bataille était-il «automatisé»? Comme un signe avant-coureur de ce qui allait arriver, le système avait éliminé l’intervention humaine à un seul point crucial du processus: la décision de tuer. Sur ce champ de bataille automatisé, les ordinateurs décidaient où et quand larguer les bombes.
En 1969, le chef d’état-major de l’armée William Westmoreland [1914-2005] a exprimé son enthousiasme pour l’élimination de l’élément humain désordonné dans l’exécution de la guerre. S’adressant à un déjeuner de l’Association of the U.S. Army, un lobby pro-armée et armements, il a déclaré:
«Sur le champ de bataille du futur, les forces ennemies seront localisées, suivies et ciblées presque instantanément grâce à l’utilisation de liaisons de données, à l’évaluation du renseignement assistée par ordinateur et à la conduite de tir automatisée. Avec des probabilités – approchant la certitude – de tuer lors de la première salve, et avec des dispositifs de surveillance capables de traquer l’ennemi en permanence, la nécessité de disposer de forces importantes pour “fixer l’opposition” sera dès lors moins importante.»
Ce que Westmoreland voulait dire par «fixer l’opposition», c’était tuer l’ennemi. Un autre euphémisme militaire du XXIe siècle est «engager». Dans les deux cas, le sens est le même: le rôle des systèmes d’armes létales autonomes est de repérer et de tuer automatiquement des êtres humains, sans intervention humaine.
De nouvelles LAWS pour une nouvelle ère: les systèmes d’armes létales autonomes
Chaque automne, la British Broadcasting Corporation (BBC) parraine une série de quatre conférences données par un expert dans un domaine d’étude important. En 2021, la BBC a invité Stuart Russell, professeur d’informatique et fondateur du Center for Human-Compatible Artificial Intelligence de l’Université de Californie à Berkeley, à donner ces «conférences Reith». Son thème général était l’avenir de l’intelligence artificielle (IA), et la deuxième conférence était intitulée «Le rôle futur de l’IA dans la guerre». Il y abordait la question des systèmes d’armes létales autonomes, ou LAWS, que les Nations unies définissent comme «des armes qui localisent, sélectionnent et frappent des cibles humaines sans supervision humaine».
Le point principal de Stuart Russell, présenté avec éloquence, était que, bien que de nombreuses personnes pensent que les armes létales autonomes sont un cauchemar futur potentiel, relevant du domaine de la science-fiction, «elles ne le sont pas. Vous pouvez les acheter aujourd’hui. Elles sont présentées sur le web.»
Je n’ai jamais vu aucun des films de la série Terminator, mais apparemment les planificateurs militaires et leurs chargés de relations publiques supposent que la plupart des gens tirent leur compréhension de ces LAWS de ce monde dystopique fictif. Les responsables du Pentagone s’efforcent souvent d’expliquer pourquoi les armes qu’ils développent ne sont pas, en fait, des équivalents réels de SkyNet – le réseau de communication mondial qui, dans ces films Terminator, devient conscient de lui-même et décide d’éliminer l’humanité. Ne vous inquiétez pas, comme l’a dit un secrétaire adjoint à la Défense à Stuart Russell: «Nous avons écouté attentivement ces arguments et mes experts m’ont assuré qu’il n’y avait aucun risque de créer accidentellement SkyNet.»
Cependant, le raisonnement de Stuart Russell était qu’un système d’armes n’a pas besoin d’être conscient de lui-même pour agir de manière autonome ou pour présenter une menace pour des êtres humains innocents. Ce dont il a besoin, c’est:
- Une plateforme mobile (tout ce qui peut se déplacer, d’un minuscule quadcoptère [micro-drone avec caméra, GPS, etc.] à un avion à voilure fixe).
- Une capacité sensorielle (la capacité de détecter des informations visuelles ou sonores).
- La capacité de prendre des décisions tactiques (le même type de capacité que l’on trouve déjà dans les programmes informatiques qui jouent aux échecs).
- La capacité d’«engager», c’est-à-dire de tuer (ce qui peut être aussi compliqué que de tirer un missile ou de larguer une bombe, ou aussi rudimentaire que de commettre une attaque suicide robotique en percutant une cible et en explosant).
***
La réalité est que de tels systèmes existent déjà. En effet, une entreprise d’armement publique turque a récemment fait la publicité de son drone Kargu – un quadcoptère «de la taille d’une assiette», comme l’a décrit Stuart Russell, qui peut transporter un kilogramme d’explosifs et est capable d’effectuer des «frappes autonomes antipersonnel» avec des «cibles sélectionnées sur des images et par reconnaissance faciale». Le site de la société a depuis été modifié pour souligner son adhésion à un supposé principe de «l’homme dans la boucle [de décision]». Cependant, l’ONU a signalé qu’un Kargu-2 entièrement autonome a, en fait, été déployé en Libye en 2020.
Vous pouvez acheter votre propre quadcoptère dès maintenant sur Amazon, même si vous devrez encore disposer quelques compétences informatiques de bricolage si vous voulez qu’il fonctionne de manière autonome.
En réalité, les systèmes d’armes létales autonomes ressemblent moins à un film de Terminator qu’à des essaims de minuscules robots tueurs. La miniaturisation des ordinateurs signifie que la technologie existe déjà pour créer des LAWS efficaces. Si votre téléphone intelligent pouvait voler, il pourrait être une arme autonome. Les téléphones les plus récents utilisent un logiciel de reconnaissance faciale pour «décider» d’autoriser l’accès. Il n’est pas difficile de créer des armes volantes de la taille d’un téléphone, programmées pour «décider» d’attaquer des individus spécifiques, ou des individus présentant des caractéristiques spécifiques. En effet, il est probable que de telles armes existent déjà.
Peut-on interdire les LAWS?
Alors, qu’est-ce qui ne va pas avec les LAWS, et y a-t-il un intérêt à essayer de les mettre hors la loi? Certains opposants affirment que le problème est qu’ils éliminent la responsabilité humaine dans la prise de décisions létales. Ces critiques suggèrent que, contrairement à un être humain qui vise et appuie sur la gâchette d’un fusil, un LAWS peut choisir et tirer sur ses propres cibles. C’est là, selon eux, que réside le danger spécifique de ces systèmes, qui feront inévitablement des erreurs, comme le reconnaîtra toute personne dont l’iPhone a refusé de reconnaître son visage.
A mon avis, le problème n’est pas que les systèmes autonomes écartent les êtres humains des décisions létales. Dans la mesure où les armes de ce type font des erreurs, les êtres humains porteront toujours la responsabilité morale du déploiement de ces systèmes létaux imparfaits. Les LAWS sont conçus et déployés par des êtres humains, qui restent donc responsables de leurs effets. Comme les drones semi-autonomes du moment (souvent pilotés depuis l’autre bout du monde), les systèmes d’armes létales autonomes ne suppriment pas la responsabilité morale humaine. Ils augmentent simplement la distance entre le tueur et la cible.
De plus, comme les armes déjà interdites, y compris les armes chimiques et biologiques, ces systèmes ont la capacité de tuer sans discernement. Même s’ils ne suppriment pas la responsabilité humaine, une fois activés, ils échapperont certainement au contrôle de l’homme, tout comme les gaz toxiques ou les «virus armés» [militaires].
Et comme pour les armes chimiques, biologiques et nucléaires, leur utilisation pourrait être efficacement empêchée par le droit et les traités internationaux. Il est vrai que des acteurs voyous, comme le régime d’Assad en Syrie ou l’armée des Etats-Unis dans la ville irakienne de Fallujah, peuvent occasionnellement violer ces règles, mais dans l’ensemble, les interdictions d’utiliser certains types d’armes potentiellement dévastatrices ont été respectées, dans certains cas depuis plus d’un siècle.
Certains experts des Etats-Unis en matière de défense soutiennent que, puisque les adversaires développeront inévitablement des LAWS, le bon sens exige que «notre pays» fasse de même, ce qui implique que la meilleure défense contre un système d’armes donné est un système identique. Cela a autant de sens que de combattre le feu par le feu alors que, dans la plupart des cas, l’utilisation de l’eau est de loin la meilleure option.
La convention sur certaines armes conventionnelles
Le domaine du droit international qui régit le respect des êtres humains en temps de guerre est, pour des raisons historiques, appelé droit international humanitaire (DIH). En 1995, les Etats-Unis ont ratifié un ajout au DIH: la Convention des Nations unies de 1980 sur certaines armes classiques. (Son titre complet est beaucoup plus long, mais son nom est généralement abrégé en CCW-Convention on Certain Conventional Weapons.) Elle régit l’utilisation, par exemple, d’armes incendiaires comme le napalm [essence gélifiée], ainsi que d’agents biologiques et chimiques.
Les signataires de la CCW se réunissent périodiquement pour discuter des autres armes qui pourraient tomber sous sa juridiction et ses interdictions, y compris les LAWS. La conférence la plus récente a eu lieu en décembre 2021. Bien qu’il existe des transcriptions des débats, seul un projet de document final – produit avant l’ouverture de la conférence – a été publié. Cela peut s’expliquer par le fait qu’aucun consensus n’a même été atteint sur la manière de définir ces systèmes, et encore moins sur la question de savoir s’ils doivent être interdits. L’Union européenne, les Nations unies, au moins 50 pays signataires et (selon les sondages) la majorité de la population mondiale estiment que les systèmes d’armes létales autonomes devraient être interdits. Les Etats-Unis, Israël, le Royaume-Uni et la Russie ne sont pas d’accord, ainsi que quelques autres pays.
Avant ces réunions de la CCW, un Groupe d’experts gouvernementaux (GEG) s’est réuni, apparemment pour fournir des conseils techniques pour les décisions à prendre par les «hautes parties contractantes» de la Convention. En 2021, le GEG n’a pas été en mesure de parvenir à un consensus sur l’interdiction de ces armes. Les Etats-Unis ont estimé que même la définition d’une arme létale autonome n’était pas nécessaire (peut-être parce que si elles pouvaient être définies, elles pourraient être interdites). La délégation des Etats-Unis s’est exprimée ainsi:
«Les Etats-Unis ont expliqué leur point de vue selon lequel une définition pratique ne devrait pas être rédigée en vue de décrire des armes qui devraient être interdites. Comme certains collègues l’ont déjà fait remarquer, il serait très difficile de parvenir à un consensus sur ce point, et ce serait contre-productif. Parce qu’il n’y a rien d’intrinsèque dans les capacités autonomes qui rendrait une arme interdite en vertu du DIH, nous ne sommes pas convaincus que l’interdiction des armes sur la base de degrés d’autonomie, comme l’ont suggéré nos collègues français, soit une approche utile.»
La délégation des Etats-Unis était également désireuse d’éliminer toute formulation qui pourrait exiger un «contrôle humain» de ces systèmes d’armes:
«[A] notre avis, le DIH n’établit pas d’exigence de “contrôle humain” en tant que tel… L’introduction d’exigences nouvelles et vagues comme celle du contrôle humain pourrait, selon nous, semer la confusion plutôt que la clarté, surtout si ces propositions sont incompatibles avec les pratiques acceptées de longue date dans l’utilisation de nombreux systèmes d’armes courants dotés de fonctions autonomes.»
Au cours de la même réunion, cette délégation a insisté à plusieurs reprises sur le fait que les armes létales autonomes seraient en fait bonnes pour nous, car elles s’avéreraient sûrement meilleures que les êtres humains pour distinguer les civils des combattants.
Dès lors, si vous croyez que la protection des civils est la raison pour laquelle l’industrie de l’armement investit des milliards de dollars dans le développement d’armes autonomes, j’ai un bout de terrain à vous vendre sur Mars à bas prix!
La campagne pour arrêter les robots tueurs
Le Groupe d’experts gouvernementaux compte également environ 35 membres non étatiques, dont des organisations non gouvernementales et des universités. La Campagne pour arrêter les robots tueurs (Campaign to Stop Killer Robots), une coalition de 180 organisations, parmi lesquelles Amnesty International, Human Rights Watch et le Conseil œcuménique des Eglises, est l’une d’entre elles. Lancé en 2013, ce groupe dynamique fournit des commentaires importants sur les problèmes techniques, juridiques et éthiques présentés par les LAWS et offre aux autres organisations et aux individus un moyen de s’impliquer dans la lutte pour interdire ces systèmes d’armes potentiellement dévastateurs.
La construction et le déploiement continus de robots tueurs ne sont pas inévitables. En effet, une majorité du monde souhaite les voir interdits, y compris le secrétaire général des Nations unies, Antonio Guterres. Laissons-lui le dernier mot: «Les machines ayant le pouvoir et la latitude discrétionnaire d’éliminer des vies humaines sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international.» Je ne pourrais être plus d’accord. (Article publié sur le site Tom Dispatch, le 9 janvier 2022; traduction rédaction A l’Encontre)
Rebecca Gordon enseigne à l’Université de San Francisco. Elle est l’auteure de Mainstreaming Torture, American Nuremberg: The U.S. Officials Who Should Stand Trial for Post-9/11 War Crimes (Hot Books, 2016). Elle travaille actuellement à un nouveau livre sur l’histoire de la torture aux Etats-Unis.
Soyez le premier à commenter