Cadrer le débat sur les systèmes d’armes autonomes

Du 13 au 16 mai 2014, les 117 États Parties à la Convention sur certaines armes classiques sont conviés à l’Office des Nations Unies à Genève pour discuter de la problématique des systèmes d’armes létaux autonomes. Il s’agit de la première réunion d’experts sur ce sujet. Cette initiative est notamment le fruit d’une campagne d’un collectif d’ONG appelant à une interdiction préventive de ce type d’arme, qu’elles considèrent comme étant intrinsèquement incompatible avec le droit international humanitaire. Toutefois, ce sont les États parties à la Convention qui ont décidé de s’emparer de ce sujet lors de leur réunion annuelle du 15 novembre 2013. La décision a d’ailleurs fait l’objet d’un consensus, fait rare en matière de désarmement. Les débats seront présidés par l’ambassadeur français auprès de la Conférence sur le désarmement, Jean-Hugues Simon-Michel, à l’origine de cette initiative. Une conférence des États Parties est ensuite prévue pour novembre. Cette procédure est susceptible de déboucher sur un Protocole VI à la Convention sur certaines armes classiques contenant des dispositions sur les robots létaux autonomes.

brimstone2

Le missile britannique Brimstone

Un des buts de la réunion sera de cerner au plus près l’autonomie, notion complexe noyée dans des considérations techniques. À cela s’ajoute le facteur politique, la notion étant susceptible d’être définie au gré de l’intérêt des acteurs qui s’en emparent.
De prime abord, la définition de l’autonomie semble consensuelle.

  • Une définition générale de l’autonomie consensuelle

Ainsi, selon Christopher Heyns, rapporteur aux Nations Unies sur les exécutions extrajudiciaires, sommaires et arbitraires, les robots létaux autonomes se réfèrent « aux systèmes d’arme robotique qui, une fois activée, peuvent sélectionner et engager des cibles sans l’intervention d’un opérateur humain. (…) Le robot dispose d’un choix autonome dans la sélection de l’objectif et l’usage de la force létale ». Plus loin, il distingue l’autonomie de l’automatique. Un système automatique opère dans un environnement structuré et prévisible là où un système autonome peut fonctionner dans un environnement ouvert, dans des circonstances « non structurées » et « dynamiques ».
Pour l’ONG Human Rights Watch, les armes pleinement autonomes qu’elle souhaite voir interdire sont celles pour lesquelles l’humain est en-dehors de la boucle de décision dans le cadre du recours à la force. Autrement dit, elles sont « capables de sélectionner des cibles et de recourir à la force sans contribution ou intervention humaine ». Toutefois, l’ONG inclut également dans cette catégorie les armes pour lesquelles l’humain est effectivement « en-dehors de la boucle », c’est-à-dire qu’il a un rôle de supervision extrêmement limité (hypothèse de l’opérateur humain qui n’intervient que pour approuver un engagement).
Le Département de la Défense américain partage la même définition. Ainsi, un système d’arme autonome « une fois activé, peut sélectionner et engager des cibles sans autre intervention d’un opérateur humain ». Cela inclut les systèmes d’arme autonome supervisés par l’humain : répondant à la définition précédente, ils sont susceptibles d’être contrôlés par un opérateur humain.
Pour le philosophe Peter Asaro, le système d’arme autonome est celui qui « est capable de cibler et d’initier potentiellement l’emploi de la force létale sans supervision humaine directe et sans implication humaine directe dans la décision de recourir à la force létale ». Il ajoute que c’est bien la délégation de la responsabilité humaine à un système autonome dans la prise de décision d’ôter la vie  qui constitue le problème juridique et moral central.

  • Zone grise

Or, à partir de quel moment s’opère précisément cette délégation ? Si tout le monde s’accorde sur une définition générale de l’autonomie, les points de vue divergent sur son application concrète. Dans un article pour le Peace Research Institute d’Oslo, le chercheur Nicholas Marsh pointe l’existence d’une zone grise entre semi-autonomie et pleine autonomie. Les définitions données précédemment seraient susceptibles de couvrir certains systèmes d’armes existants. Tel serait le cas du Brimstone, arme britannique antichar en développement dans les années 90 et mise en service en 2005. L’arme est décrite comme « pleinement autonome » de type « fire and forget ». Durant la phase de recherche, le détecteur radar du missile examine les objectifs dans sa direction, les comparant à la signature d’objectifs connus stockée dans sa mémoire. Le missile rejette automatiquement les objectifs qui ne correspondent pas, tels que les objets civils comme les voitures, les bus ou les immeubles. Il continue sa recherche jusqu’à l’identification d’un objectif valide. Le missile peut être programmé pour arrêter sa recherche au-delà d’un point donné afin d’éviter les forces amies. Il peut également être programmé pour confiner sa recherche à une zone précise.
Pour Nicholas Marsh, cette arme est susceptible de tomber dans la définition générale de l’autonomie. Le ministère de la Défense britannique reconnaît d’ailleurs que l’arme atteint un degré d’opérabilité autonome dans certains environnements. Toutefois, il refuse de l’inclure dans sa définition des systèmes d’arme autonome. En effet, on peut objecter à Marsh qu’un contrôle humain existe à travers le paramétrage du ciblage et de la zone à inspecter. Par ailleurs, le seuil d’autonomie fixé par le ministère britannique est plus élevé par rapport aux définitions précédentes puisqu’il exige un niveau de compréhension du système comparable à celui d’un humain. Cela est contestable, selon le roboticien Noel Sharkey, car une telle technologie n’existe pas et semble improbable dans un avenir proche. Autrement dit, cette définition ne comprendrait pas des systèmes d’armes plaçant l’humain « en-dehors de la boucle » tant que leurs « fonctions cognitives » seraient éloignées de celles de l’humain.

Il convient de préciser que les missiles de type « fire and forget » pour lesquels un opérateur humain sélectionne la cible sont considérés comme semi-autonomes : ils ne sont donc pas concernés par la problématique soulevée par le Brimstone.

  • Privilégier une approche fonctionnelle.

Dès lors, l’autonomie ne peut être considérée comme le trait caractéristique uniforme d’une technologie. Elle est d’abord attachée à une ou plusieurs fonctions. C’est en adoptant une approche fonctionnelle que l’on pourra aborder concrètement les implications morales et juridique de l’autonomie, plutôt que de s’enfermer dans des définitions rigides. Telle est la proposition faite par l’Institut pour la recherche sur le désarmement des Nations Unies pour donner un cadre aux futures discussions internationales sur la problématique des robots létaux autonomes. L’organisation énumère un certain nombre de variables dont l’examen minutieux et approfondi peut déterminer l’acceptabilité d’un système d’arme autonome :

  1. les actions satisfaisant un objectif : il s’agit de la capacité à créer et suivre un plan d’action afin de satisfaire un objectif. Il convient de se demander si les objectifs sont générés par le système ou s’ils fixés par une source externe. Dans la première hypothèse, sont-ils ensuite soumis à une confirmation externe ?
  2. la prévisibilité : soit le caractère prévisible des actions du système. Plus l’environnement est simple, moins cela requiert d’actions et plus le comportement du système sera prévisible. De même, moins les actions susceptibles d’être entreprises par le système sont variés, plus il sera prévisible, même dans un environnement complexe. Il en est de même pour le degré de contrôle exercé sur le système.
  3. la communication : on s’interroge ici sur le degré de précision des communications avec le système. Par exemple, si les communications manquent de précision, cela signifie-t-il que le système doit les interpréter ?
  4. la profondeur du raisonnement : plus la capacité de raisonnement d’un système est limité, moins il sera autonome et plus son « comportement » sera prévisible.
  5. la précision des capteurs et la capacité de synthèse : les capacités brutes des capteurs du système détermineront sa capacité à distinguer les éléments dans un environnement.
  6. localisation du système et contrôle de l’environnement : le contrôle de la localisation physique et de la complexité de l’environnement dans lequel le système peut fonctionner augmentera le contrôle sur le système.
  7. les fonctions : cette variable désigne la nature des actions accessibles au système (navigation, ciblage, décision de recourir à la force).

Ces variables doivent être appréciées dans leurs relations, chacune influençant l’autre, mais aussi en situation, selon l’environnement dans lequel le système opère. Ainsi, l’emploi de systèmes autonomes dans des environnements éloignés et non complexes, comme les systèmes sous-marins utilisés contre les mines marines, est susceptible de générer un haut niveau d’acceptation. C’est pourquoi certains systèmes d’arme existants, à la fois très automatisés (pas d’intervention humaine en temps réel), de nature défensive et déployés dans des environnements non complexes suscitent peu de débats (le Counter Rocket Artillery and Mortar, l’Iron Dome israélien…).
Par contre, l’emploi d’une arme autonome dans un environnement complexe et dynamique, tel qu’une ville mélangeant des éléments civils et militaires, ne risque pas de susciter le même degré d’acceptation.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s