Bientôt, les drones militaires pourront choisir sur qui tirer

Pilotés jusque là par des opérateurs humains, les drones de l’armée américaine répondront dans un futur proche à une intelligence artificielle. Le Département de la Défense des États-Unis a récemment annoncé que la militarisation des IA était sur la bonne voie.

Crédit : U.S. Air Force photo/Staff Sgt. Brian Ferguson

Dans un communiqué tout ce qu’il y a de plus officiel, l’armée des États-Unis a fait savoir que le développement d’un drone capable de cibler véhicules et personnels sur les seuls ordres d’une intelligence artificielle suivait son bonhomme de chemin. Dans un futur proche, cela signifie que les drones pourront choisir, selon un algorithme, qui tuer, et ce sans qu’un humain ne soit impliqué (enfin si, mais pas là où il aimerait).

Qui doit presser la détente ?

Loin d’être d’actualité, ces drones militaires autonomes soulèvent déjà des questions en matière d’éthique, de légalité et de moralité. Les nombreux drones en opération dans les diverses forces armées internationales sont tous pilotés ou contrôlés par un être humain. Lorsque décision est prise de larguer une bombe ou d’éliminer un combattant ennemi, ce choix résulte d’un officier humain et est exécuté par un opérateur humain. Ce qui signifie qu’au bout du compte, la responsabilité de la mort d’une ou plusieurs personnes incombe à un autre être humain. Ce que l’on pourrait appeler ironiquement “l’humanité de la guerre”.

Doit-on donc laisser la décision de vie ou de mort à une machine, et ainsi supprimer cette “humanité” dans la guerre ?

Crédit : U.S. Air Force photo/Staff Sgt. Brian Ferguson/Flickr

Ronald Arkin, chercheur à l’Institute of Technology d’Atlanta en Géorgie, estime que l’automatisation des drones permettrait d’en finir avec les syndromes de stress post-traumatique et autres troubles psychologiques qui touchent les opérateurs de drones. Cependant, une étude publiée en 2014 sur le site JRSM Open avance qu’il n’est pas nécessaire d’être responsable de la mort de quelqu’un pour être traumatisé par cette dernière. L’exposition prolongée à des images violentes peut suffire à déclencher des troubles chez le spectateur.

Interrogé par Peter Lee, spécialiste en Risque et Sécurité à l’Université de Portsmouth, un opérateur de drone MQ-9 Reaper au sein de l’armée américaine expliquait “qu’il préférait laisser un insurgé s’enfuir, même s’il s’agit d’une cible importante, plutôt que de risquer de toucher des civils avec une frappe.”

Advanced Warfare or next-gen mass-killing ?

Au risque de paraître consensuel, l’utilisation de drones dirigée de A à Z par une intelligence artificielle va indéniablement changer la face de la guerre. Répondant à la logique du deep-learning et d’une flopée d’algorithmes, les drones pourront décider de s’attaquer non plus uniquement à des cibles militaires ou combattantes, mais également à des cibles civiles qui servent l’effort de guerre.

Concrètement, une station-service peut tout aussi bien fournir de l’essence aux véhicules civils, qu’aux engins militaires. Cet exemple n’est pas anodin, comme le souligne Peter Lee, puisqu’en 1999, lors de la guerre du Kosovo, décision a été prise par les militaires d’attaquer la raffinerie de Pancevo, pour la raison évoquée plus haut.

L’intelligence artificielle pourrait, à l’aide du deep-learning, pousser cette logique à son paroxysme. D’autant que les scientifiques et chercheurs en charge du développement d’I.A. pourraient rapidement devenir de nouvelles cibles dans le cadre d’un conflit armé. On pense notamment à Google, ou Facebook.

D’un point de vue légal, cela signifie que les autorités devront poser des balises à l’auto-apprentissage. Pire encore, lors des premiers déploiements de tels drones, les officiers supérieurs, les hommes politiques et une partie de la communauté scientifique devront déterminer la quantité de pertes civiles acceptables au fur et à mesure que la technologie se développe.