Jeudi, le département d’État américain a publié une “Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie”, appelant à un déploiement éthique et responsable de l’IA dans les opérations militaires entre les pays qui les développent. Le document énonce 12 meilleures pratiques pour le développement de capacités d’IA militaires et met l’accent sur la responsabilité humaine.
La déclaration coïncide avec la participation des États-Unis à un sommet international sur l’utilisation responsable de l’IA militaire à La Haye, aux Pays-Bas. Reuters a qualifié la conférence de “première du genre”. Lors du sommet, la sous-secrétaire d’État américaine au contrôle des armements, Bonnie Jenkins, a déclaré : « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l’utilisation de l’IA » et des armes autonomes.
Dans un préambule, la déclaration américaine souligne qu’un nombre croissant de pays développent des capacités militaires d’IA pouvant inclure l’utilisation de systèmes autonomes. Cette tendance a suscité des inquiétudes quant aux risques potentiels liés à l’utilisation de ces technologies, en particulier lorsqu’il s’agit de se conformer au droit international humanitaire.
L’utilisation militaire de l’IA peut et doit être éthique, responsable et renforcer la sécurité internationale. L’utilisation de l’IA dans les conflits armés doit être conforme au droit international humanitaire applicable, y compris ses principes fondamentaux. L’utilisation militaire des capacités d’IA doit être responsable, y compris par le biais d’une telle utilisation lors d’opérations militaires au sein d’une chaîne de commandement et de contrôle humaine responsable. Une approche fondée sur des principes de l’utilisation militaire de l’IA devrait inclure un examen attentif des risques et des avantages, et elle devrait également minimiser les biais et les accidents involontaires. Les États devraient prendre les mesures appropriées pour garantir le développement, le déploiement et l’utilisation responsables de leurs capacités militaires d’IA, y compris celles permettant des systèmes autonomes.
Les 12 meilleures pratiques répertoriées dans le document concernent la sécurité des armes nucléaires, la conception de systèmes responsables, la formation du personnel et les méthodologies d’audit des capacités d’IA militaires. Le document souligne également la nécessité de minimiser les biais et les accidents involontaires et l’importance des tests pour garantir la sécurité et l’efficacité des capacités d’IA militaires.
Publicité
Le document contient quelques exemples notables de responsabilisation des humains dans la chaîne de commandement en ce qui concerne les systèmes autonomes, en particulier en ce qui concerne les armes nucléaires : “Les États doivent maintenir le contrôle et l’implication humains pour toutes les actions essentielles à l’information et à l’exécution des décisions souveraines concernant l’emploi des armes nucléaires. .”
Il couvrait également le comportement involontaire de l’IA dans les systèmes militaires, ce qui est devenu récemment une préoccupation avec les systèmes d’apprentissage en profondeur grand public : “Les États devraient concevoir et concevoir des capacités d’IA militaires afin qu’ils possèdent la capacité de détecter et d’éviter les conséquences involontaires et la capacité de désengager ou désactiver les systèmes déployés qui présentent un comportement inattendu.”
Le document ne précise pas exactement quel type de systèmes autonomes ou alimentés par l’IA sont couverts par la déclaration, mais comme il n’existe pas de définition universelle de “l’intelligence artificielle”, il expose sa compréhension du terme dans une note de bas de page. Le document stipule : « Aux fins de la présente Déclaration, l’intelligence artificielle peut être comprise comme faisant référence à la capacité des machines à effectuer des tâches qui nécessiteraient autrement l’intelligence humaine, par exemple, reconnaître des modèles, apprendre de l’expérience, tirer des conclusions, faire des prédictions, ou prendre des mesures, que ce soit numériquement ou en tant que logiciel intelligent derrière des systèmes physiques autonomes. »
Jeudi également, plus de 60 pays ont signé un “appel à l’action” approuvant l’utilisation militaire responsable de l’IA. Reuters rapporte que des experts des droits de l’homme et des universitaires ont noté que la déclaration n’est pas juridiquement contraignante et “n’a pas répondu à des préoccupations telles que les drones guidés par l’IA, les ‘slaughterbots’ qui pourraient tuer sans intervention humaine, ou le risque qu’une IA puisse aggraver un conflit militaire .”
Le document de déclaration complet, créé sous l’autorité du Bureau of Arms Control, Verification, and Compliance, est disponible sur le site Web du Département d’État américain.