An official website of the United States Government Here's how you know

Official websites use .gov

A .gov website belongs to an official government organization in the United States.

Secure .gov websites use HTTPS

A lock ( ) or https:// means you’ve safely connected to the .gov website. Share sensitive information only on official, secure websites.

De plus en plus d’États développent des capacités d’IA militaires, susceptibles de passer, entre autres, par une utilisation de l’IA pour des fonctions et systèmes autonomes.   L’utilisation militaire de l’IA peut et devrait être éthique et responsable tout en renforçant la sécurité internationale.  Elle doit respecter le droit international en vigueur.  L’utilisation de l’IA en situation de conflit armé, en particulier, doit être conforme aux obligations des États au titre du droit international humanitaire, y compris ses principes fondamentaux.  L’utilisation militaire de capacités d’IA doit être redevable ; ainsi, leur emploi dans le cadre d’opérations militaires doit s’effectuer sous une chaîne de commandement et un contrôle humains responsables.  Une approche fondée sur les principes vis-à-vis de l’utilisation militaire de l’IA devrait passer par un examen minutieux des risques et des avantages qu’elle présente tout en minimisant les biais non intentionnels et les accidents. Les États devraient prendre des mesures adaptées pour assurer un développement, un déploiement et une utilisation responsables des capacités d’IA militaires, y compris celles qui permettent l’exploitation de fonctions et systèmes autonomes.  Ces mesures devraient être mises en place aux étapes du cycle de vie des capacités d’IA militaires où elles sont pertinentes.   

Les États qui souscrivent à la présente estiment que les mesures suivantes devraient être mises en œuvre lors du développement, du déploiement ou de l’utilisation des capacités d’IA militaires, y compris celles qui permettent l’exploitation de fonctions et systèmes autonomes : 

  1. Les États devraient veiller à ce que leurs organisations militaires adoptent et mettent en pratique ces principes pour le développement, le déploiement et l’utilisation responsables des capacités d’IA.  
  2. Les États devraient prendre des mesures adaptées, par exemple, des examens de leurs textes de loi, pour veiller à ce que leurs capacités d’IA militaires soient utilisées conformément à leurs obligations au titre du droit international, en particulier le droit international humanitaire.  Les États devraient également déterminer comment utiliser leurs capacités d’IA militaires pour améliorer la mise en pratique du droit international humanitaire et améliorer la protection des civils et des objets civils en situation de conflit armé.    
  3. Les États devraient s’assurer que leurs responsables de haut niveau encadrent de manière efficace et adaptée le développement et le déploiement des capacités d’IA militaires dont les applications ont des conséquences importantes, y compris, mais sans s’y limiter, les systèmes d’armement de ce type. 
  4. Les États devraient prendre des mesures volontaristes pour minimiser les biais non intentionnels en ce qui concerne leurs capacités d’IA militaires.
  5. Les États devraient veiller à ce que le personnel concerné exerce un degré de précaution adapté lors du développement, du déploiement et de l’utilisation de capacités d’IA militaires, y compris les systèmes d’armement qui emploient ces capacités.
  6. Les États devraient veiller à ce que les capacités d’IA militaires soient développées avec des méthodologies, des sources de données, des procédures de conception et de la documentation qui soient transparents pour le personnel de défense concerné et puissent faire l’objet d’un audit par celui-ci. 
  7. Les États devraient s’assurer que le personnel qui utilise ou approuve l’utilisation des capacités d’IA militaires soit formé afin de comprendre suffisamment les capacités et les limites de ces systèmes afin de prendre des décisions appropriées et adaptées au contexte concernant l’utilisation de ces systèmes et d’atténuer les risques de biais d’automatisation.  
  8. Les États devraient veiller à ce que les capacités d’IA militaires aient des utilisations explicites, bien définies, et qu’elles soient conçues et développées de façon à remplir ces fonctions.  
  9. Les États devraient s’assurer que la sécurité, la sûreté et l’efficacité des capacités d’IA militaires fassent l’objet d’essais et de vérifications adaptés et rigoureux dans les limites de leurs utilisations bien définies et tout au long de leur cycle de vie.  En ce qui concerne les capacités d’IA militaire qui apprennent de manière automatique ou se mettent à jour en continu, les États devraient s’assurer, par le biais de processus comme la surveillance, que les fonctionnalités de sécurité essentielles ne se dégradent pas. 
  10. Les États devraient mettre en place des garde-fous adaptés pour atténuer les risques associés aux pannes des capacités d’IA militaires, par exemple, en étant capables de détecter et d’éviter les conséquences non désirées et de riposter, par exemple en désengageant ou en désactivant les systèmes déployés lorsque ceux-ci ont un comportement non souhaité.

Afin d’avancer vers la réalisation des objectifs de la présente Déclaration, les États qui y souscrivent prendront les mesures suivantes : 

  • Mettre en œuvre ces mesures lors du développement, du déploiement ou de l’utilisation des capacités d’IA militaires, y compris celles qui permettent l’exploitation de fonctions et de systèmes autonomes ; 
  • Rendre public leur engagement au titre de la présente Déclaration et publier des informations adaptées concernant leur mise en œuvre de ces mesures ;
  • Contribuer à d’autres activités adaptées visant à assurer une utilisation responsable et légale des capacités d’IA militaires ; 
  • Poursuivre la discussion, entre les États qui souscrivent à la présente Déclaration, sur le développement, le déploiement et l’utilisation responsables et légales des capacités d’IA militaires ;
  • Favoriser une mise en œuvre efficace de ces mesures et mieux les préciser ou en prendre d’autres que les États souscrivant à la présente jugent adaptées ; et  
  • Poursuivre le dialogue avec le reste de la communauté internationale afin de mettre en avant ces mesures, y compris dans d’autres forums portant sur des thèmes connexes, sans préjudice des discussions en cours sur ces thèmes dans ces mêmes forums.   

Les États souscrivant à la présente reconnaissent que les concepts de l’intelligence et de l’autonomie artificielles peuvent faire l’objet de différentes interprétations.  Aux fins de la présente Déclaration, on peut entendre, par « intelligence artificielle », la capacité des machines à effectuer des tâches qui feraient normalement intervenir l’intelligence humaine.  Il peut s’agir, par exemple, de la reconnaissance de schémas récurrents, de l’apprentissage fondé sur les expériences, ou de la formulation de conclusions, de prévisions ou de recommandations.  Une application d’IA est susceptible d’orienter ou de modifier le comportement d’un système physique autonome ou d’effectuer des tâches confinées à l’univers numérique.  Par « autonomie », on peut entendre un spectre, un système qui fonctionne sans autre intervention humaine une fois activé.

U.S. Department of State

The Lessons of 1989: Freedom and Our Future