Faut-il interdire les robots létaux autonomes ?

L’année 2013 a vu le lancement de la campagne visant à interdire les armes robotiques entièrement autonomes, ou « robots tueurs » par un collectif de trente ONG. L’année 2014 sera-t-elle l’année de leur interdiction effective ? C’est ce que souhaite l’ONG Human Rights Watch (HRW) qui vient de publier avec l’Harvard Law School Human Rights Clinic un mémorandum plaidant en faveur d’une interdiction préventive de ces armes. Ce texte s’adresse tout particulièrement aux délégués des gouvernements conviés à la réunion annuelle de la Convention sur certaines armes classiques qui se tiendra à Genève en 2014. Il semble avoir porté ces fruits puisque les États Parties à la Convention ont décidé vendredi 15 novembre 2013 que la question des robots pleinement autonomes sera au menu des discussions en mai 2014.

Le TALON de Foster-Miller Inc

Qu’entend-on par « robot pleinement autonome » ? Selon, HRW cela inclut aussi bien les armes inhabitées qui ciblent et engagent un objectif sans intervention humaine que ceux qui le font sous la supervision d’un humain. Si les premiers n’existent pas encore, et sont donc susceptibles de faire l’objet d’une interdiction préventive, certains systèmes robotiques existants sont proches de la définition des seconds. Par exemple, le système anti-missile Phalanx permet aux navires qui en sont équipés de détecter, traquer et engager automatiquement les menaces militaires anti-aériennes. L’inclusion de ce type d’arme à l’ « autonomie supervisée » dans la catégorie des armes pleinement autonomes se justifie par le fait que, dans la pratique, le processus de prise décision est tellement rapide (mesuré en nanosecondes) et l’information étant inaccessible au superviseur, l’humain est de facto « en-dehors de la boucle ».

Pour HRW et les ONG engagées dans la campagne pour l’interdiction préventive des « robots tueurs », il y aurait une incapacité inhérente de ces systèmes à respecter le droit international humanitaire.  Fondamentalement, l’application du droit à une situation concrète, complexe et dynamique nécessite une faculté de jugement qui est propre à l’humain. En dépit de la puissance de ses capteurs et de sa capacité à gérer un flot massif d’informations en temps réel, le robot reste privé de cette faculté de jugement nécessaire pour interpréter une situation. Par exemple, le 3 juillet 1988, le navire de guerre U.S.S. Vincennes patrouillant dans le Golfe Persique abattait par erreur un Airbus de la compagnie Iran Air tuant ses 290 passagers. Le système radar Aegis équipant le bateau, réglé en mode semi-automatique, l’avait repéré comme étant un avion de combat F-14 iranien. Soumis au biais de l’automation, aucun des marins et officiers à bord du navire ne remirent en question l’information fournie par l’ordinateur. En position de supervision, ils autorisèrent la frappe.

Autrement dit, les robots pleinement autonomes contreviendraient au principe d’humanité énoncée par la clause de Martens et pouvant être défini comme un mélange de « compassion, [d’]entraide, [de] geste vers l’autre pour le secourir, le protéger ».

Un Destroyer doté du radar Aegis

Cependant,  si ces traits humains ont certainement prévenu un grand nombre d’abus dans l’usage de la force au cours de l’Histoire, il est également vrai que les émotions ont conduit l’humain à se laisser aller à ses plus bas instincts à l’origine de nombreux massacres (sans compter « la banalité du mal » qui l’a conduit à commettre les pires crimes avec une froideur qui finalement n’a rien à envier à celle de la machine). Sans aller jusqu’à ces extrêmes, on peut légitimement s’interroger sur la fiabilité du jugement humain. Les erreurs d’identification, les tirs fratricides, les évaluations erronées sont autant de défaillances du jugement humain aux conséquences dramatiques. Sur ce point, Michael Schmitt expose une autre version du drame de l’avion de ligne iranien de 1988. En fait, l’ordinateur de bord aurait indiqué avec justesse que l’avion était en phase ascendante ce qui aurait conduit l’équipage à croire qu’il allait descendre pour opérer une attaque. C’est cette mauvaise évaluation qui l’ont conduit à détruire l’aéronef.

Les partisans des robots létaux autonomes vont encore plus loin sur la question du principe d’humanité et, plus généralement, sur le respect du droit international humanitaire. De par la puissance de leurs capteurs et de leur mémoire, ils sont susceptibles de constituer une force plus discriminatrice que les simples soldats car le ciblage n’est pas qu’une affaire de sensibilité ; c’est aussi de la gestion d’informations afin de réduire au maximum un brouillard guerre de plus en plus dense dans les conflits asymétriques contemporains. A cela s’ajoute nombre de possibilités alternatives d’emploi de la force militaire afin de minimiser les risques de dommages civils, possibilités difficiles voire impossibles d’appliquer à l’Homme : capacité à viser l’arme ennemie plutôt que le corps, disposition à se « sacrifier » afin de surmonter un dilemme éthique pouvant se solder par des morts civils, équipement d’armes non létales afin de procéder à un usage gradué de la force…

Dès lors, il serait dangereux, selon Michael Schmitt, de se priver d’une capacité de discrimination qui pourrait sauver de nombreuses vies civiles, nonobstant le fait que ces robots pourraient également être employés dans des situations où la discrimination ne joue pas (par exemple, en visant une colonne de véhicules armées ennemies éloignées des zones densément peuplées). Leur légalité dépend des situations dans lesquelles ils opèrent ; il serait donc absurde de demander une interdiction en soi de ces armes.

Le Packbot d’IRobot

Cela d’autant plus que la guerre est de plus en plus automatisée. C’est l’argument du fait accompli souvent invoqué par les partisans des « robots tueurs ». Il est vrai que bon nombre d’opérations de ciblage se font sans qu’une quelconque sensibilité humaine entre en jeu. Les tirs « au-delà de la portée visuelle », l’emploi de missiles « fire and forget » sont communs dans la guerre moderne sans pour autant que leur interdiction « en soi » n’ait été demandée. En dépit de cette évolution, la disparition de l’Homme dans la boucle ne serait pas à l’ordre du jour. La vision d’un futur où des armées de robots opèreraient de leur propre chef serait de la pure science fiction. Selon le Département de la Défense américain l’autonomie (supervisée) est envisagée comme une collaboration entre l’Homme et la machine.

Il ne s’agit donc pas de remplacer l’humain mais de l’augmenter. Reste à savoir si cette « augmentation » se fera à son bénéfice ou à son détriment.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s