L’armée américaine intensifie son engagement dans le développement et l’utilisation d’armes autonomes, comme le confirme une mise à jour d’une directive du ministère de la Défense.
La mise à jour, publiée le 25 janvier 2023, est la première en une décennie à se concentrer sur les armes autonomes à intelligence artificielle. Il fait suite à un plan de mise en œuvre connexe publié par l’OTAN le 13 octobre 2022, qui vise à préserver «l’avantage technologique» de l’alliance dans ce que l’on appelle parfois les «robots tueurs».
Ces deux annonces reflètent une leçon cruciale que les militaires du monde entier ont tirée des récentes opérations de combat en Ukraine et au Haut-Karabakh : l’intelligence artificielle armée est l’avenir de la guerre.
“Nous savons que les commandants voient une valeur militaire dans les munitions qui traînent en Ukraine”, m’a dit Richard Moyes, directeur d’Article 36, une organisation humanitaire axée sur la réduction des dommages causés par les armes, dans une interview.
Ces armes, qui sont un croisement entre une bombe et un drone, peuvent planer pendant de longues périodes en attendant une cible. Pour l’instant, ces missiles semi-autonomes sont généralement exploités avec un contrôle humain important sur les décisions clés, a-t-il déclaré.
La pression de la guerre
Mais à mesure que les pertes augmentent en Ukraine, la pression pour obtenir des avantages décisifs sur le champ de bataille avec des armes entièrement autonomes augmente – des robots qui peuvent choisir, traquer et attaquer leurs cibles tout seuls, sans avoir besoin d’aucune supervision humaine.
Ce mois-ci, un fabricant russe clé a annoncé son intention de développer une nouvelle version de combat de son robot de reconnaissance Marker, un véhicule terrestre sans équipage, pour augmenter les forces existantes en Ukraine.
Des drones entièrement autonomes sont déjà utilisés pour défendre les installations énergétiques ukrainiennes contre d’autres drones. Wahid Nawabi, PDG de l’entrepreneur de défense américain qui fabrique le drone semi-autonome Switchblade, a déclaré que la technologie est déjà à portée de main pour convertir ces armes afin qu’elles deviennent totalement autonomes.
‘Android Technology’ et la ‘Foundation for Advanced Research’ (FPI) testent le Marker UGV effectuant des patrouilles au port spatial russe (Vostochny Cosmodrome). #ugv #unmanned #uncrewed #robotics #russianfederation #combat #patrouille #security #autonomy #autonomousvehicles pic.twitter.com/jbIX7GQPzU
– Mélanie Rovery (@MelanieRovery) 8 octobre 2021
Mykhailo Fedorov, ministre ukrainien de la transformation numérique, a fait valoir que les armes entièrement autonomes étaient la “prochaine étape logique et inévitable” de la guerre et a récemment déclaré que les soldats pourraient les voir sur le champ de bataille au cours des six prochains mois.
Les partisans de systèmes d’armes entièrement autonomes soutiennent que la technologie gardera les soldats hors de danger en les gardant hors du champ de bataille. Ils permettront également de prendre des décisions militaires à une vitesse surhumaine, permettant des capacités défensives radicalement améliorées.
Actuellement, les armes semi-autonomes, comme les munitions qui traînent qui se suivent et explosent sur des cibles, nécessitent un “humain dans la boucle”. Ils peuvent recommander des actions mais exigent de leurs opérateurs qu’ils les initient.
En revanche, les drones entièrement autonomes, comme les soi-disant “chasseurs de drones” actuellement déployés en Ukraine, peuvent suivre et désactiver les véhicules aériens sans pilote entrants jour et nuit, sans intervention de l’opérateur et plus rapidement que les systèmes d’armes contrôlés par l’homme.
Demander un délai d’attente
Des critiques comme The Campaign to Stop Killer Robots plaident depuis plus d’une décennie pour interdire la recherche et le développement de systèmes d’armes autonomes. Ils pointent vers un avenir où les systèmes d’armes autonomes sont conçus spécifiquement pour cibler les humains, pas seulement les véhicules, les infrastructures et d’autres armes.
Ils soutiennent que les décisions de vie et de mort en temps de guerre doivent rester entre des mains humaines. Les confier à un algorithme relève de la forme ultime de déshumanisation numérique.
En collaboration avec Human Rights Watch, The Campaign to Stop Killer Robots soutient que les systèmes d’armes autonomes manquent du jugement humain nécessaire pour faire la distinction entre les civils et les cibles militaires légitimes. Ils abaissent également le seuil de la guerre en réduisant les risques perçus et ils érodent le contrôle humain significatif sur ce qui se passe sur le champ de bataille.
Les organisations affirment que les armées qui investissent le plus dans les systèmes d’armes autonomes, notamment les États-Unis, la Russie, la Chine, la Corée du Sud et l’Union européenne, lancent le monde dans une nouvelle course aux armements coûteuse et déstabilisante. Une conséquence pourrait être que cette nouvelle technologie dangereuse tombe entre les mains de terroristes et d’autres personnes échappant au contrôle du gouvernement.
La directive mise à jour du ministère de la Défense tente de répondre à certaines des principales préoccupations. Il déclare que les États-Unis utiliseront des systèmes d’armes autonomes avec “des niveaux appropriés de jugement humain sur l’utilisation de la force”.
Human Rights Watch a publié une déclaration indiquant que la nouvelle directive ne précise pas ce que signifie l’expression “niveau approprié” et n’établit pas de lignes directrices pour savoir qui devrait le déterminer.
Mais comme le soutient Gregory Allen, un expert du groupe de réflexion sur la défense nationale et les relations internationales, le Center for Strategic and International Studies, ce langage établit un seuil inférieur au « contrôle humain significatif » exigé par les critiques.
La formulation du ministère de la Défense, souligne-t-il, permet la possibilité que dans certains cas, comme avec les avions de surveillance, le niveau de contrôle humain considéré comme approprié “peut être faible ou nul”.
La directive mise à jour comprend également un langage promettant une utilisation éthique des systèmes d’armes autonomes, en particulier en établissant un système de surveillance pour le développement et l’utilisation de la technologie, et en insistant sur le fait que les armes seront utilisées conformément aux lois internationales de la guerre en vigueur.
Mais Moyes de l’article 36 a noté que le droit international ne fournit actuellement pas un cadre adéquat pour comprendre, et encore moins réglementer, le concept d’autonomie des armes.
Le cadre juridique actuel ne précise pas, par exemple, que les commandants sont chargés de comprendre ce qui déclenchera les systèmes qu’ils utilisent, ou qu’ils doivent limiter la zone et le temps pendant lesquels ces systèmes fonctionneront.
“Le danger est qu’il n’y a pas de ligne claire entre où nous en sommes maintenant et où nous avons accepté l’inacceptable”, a déclaré Moyes.
Équilibre impossible ?
La mise à jour du Pentagone démontre un engagement simultané à déployer des systèmes d’armes autonomes et à se conformer au droit international humanitaire. Comment les États-Unis équilibreront ces engagements, et si un tel équilibre est même possible, reste à voir.
Le Comité international de la Croix-Rouge, le gardien du droit international humanitaire, insiste sur le fait que les obligations légales des commandants et des opérateurs “ne peuvent être transférées à une machine, un algorithme ou un système d’arme”. À l’heure actuelle, les êtres humains sont tenus responsables de la protection des civils et de la limitation des dommages de combat en s’assurant que l’utilisation de la force est proportionnelle aux objectifs militaires.
Si et quand des armes artificiellement intelligentes sont déployées sur le champ de bataille, qui devrait être tenu responsable en cas de décès inutiles de civils ? Il n’y a pas de réponse claire à cette question très importante.
James Dawes, professeur d’anglais, Macalester College
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.