Faut-il être humain pour appliquer le droit international humanitaire?

C’est la question qui ressort de la lecture du dernier rapport de Human Rights Watch (HRW) intitulé « Losing Humanity »  dans lequel l’ONG conclut à l’incapacité des armes autonomes à se conformer aux standards du droit international humanitaire et à assurer la protection des civils en temps de guerre.

HRW s’inquiète du développement de robots autonomes qui seraient une réalité d’ici une vingtaine d’années. Les germes de cette évolution existent déjà avec les systèmes de défense automatique. Pour prendre un exemple d’actualité, on peut citer le système de défense antimissile israélien « Dôme de fer » chargé d’intercepter les roquettes lancées depuis la bande de Gaza. Ce type de système détecte la présence d’un missile ennemi et répond automatiquement afin de neutraliser la menace.

Ce type de système est, pour l’instant, automatique et réduit à des fonctions défensives. Cela peut être considéré comme un premier pas vers l’autonomie et des fonctions offensives. Le drone de la Navy X-47B dispose de la capacité de décoller, de voler et de se ravitailler tout seul. Ce changement de paradigme (l’humain est désormais cantonné à un rôle d’observation) laisse entrevoir la possibilité de procéder à des attaques de manière autonome (d’autant plus que ce drone dispose d’une capacité de charge de deux tonnes).

Or, l’avènement de systèmes autonomes risque de mettre en cause l’application du droit international humanitaire dont l’effectivité est indissociable de certaines facultés humaines. Le commentaire de l’article 36 du Protocole additionnel I est sans ambiguïté sur les dangers de la domination de la technique sur l’Homme. « L’usage d’armes à longue portée, télécommandées ou combinées à des senseurs placés sur le terrain, conduirait à une automatisation du champ de bataille, où le soldat jouerait un rôle de moins en moins important (…). Toutes les prévisions concourent pour confirmer que, si l’homme ne domine pas la technique et lui permet de devenir son maître, la technique détruira l’homme ».

Ainsi, les armes complètement autonomes n’auraient pas la capacité de distinguer entre les combattants et les civils, surtout sur les théâtres d’opération contemporains où cette différence est ténue, le belligérant étant un civil participant directement aux hostilités. En effet, l’arme autonome ne dispose pas des qualités humaines nécessaires, en l’occurrence la capacité à ressentir des émotions,  pour évaluer l’intention d’un individu qui est primordial pour opérer la distinction. Prenons l’exemple d’une mère effrayée courant après ses deux enfants jouant avec des armes factices devant un soldat et leur demandant d’arrêter. Un humain pourrait reconnaître la situation et les intentions pacifiques des protagonistes. Au contraire, un robot pourrait voir une personne courant après deux individus armés, déclenchant alors une attaque.

S’agissant du principe de proportionnalité, il est fort improbable qu’un robot puisse être préprogrammé pour traiter du nombre infini de scénarios possibles et interpréter ainsi une situation en temps réel. Cette incapacité à analyser une situation complexe est susceptible de conduire à des violations du droit. Le commentaire de l’article 57 PAI fait référence à la faculté de jugement humain dans l’analyse de la proportionnalité. « Ce système repose en partie sur une évaluation subjective » (…).  Pour les chefs militaires, l’interprétation sera avant tout une question de bon sens et de bonne foi ». Le Tribunal Pénal International pour l’ex-Yougoslavie renvoie au standard du commandant militaire responsable : il convient d’apprécier « si une personne ayant une connaissance suffisante de la situation dans laquelle se trouvait l’auteur, et exploitant judicieusement les informations à sa disposition, aurait pu prévoir que l’attaque causerait des pertes excessives dans la population civile ». Le test requiert plus que de faire la balance entre des données quantitatives. Un robot ne peut pas être programmé pour dupliquer le processus psychologique du jugement humain nécessaire pour évaluer la proportionnalité.

Il en est de même pour l’application de la nécessité militaire qui dépend du contexte et du jugement de valeur du commandant. Par exemple, identifier si un ennemi est hors-de-combat requiert une capacité de jugement apte à vérifier si le combattant à terre feint une blessure, s’il est légèrement blessé mais susceptible d’être détenu en agissant rapidement ou s’il est gravement blessé, ne posant donc plus une menace directe.

Par ailleurs, se pose la question de l’absence d’émotion humaine. Pour les défenseurs des armes autonomes, c’est un avantage. Ils ne sont pas sujets à la peur et à la colère, sentiments qui peuvent éroder la capacité de jugement et mener à des bavures. De plus, ces robots peuvent être programmés pour agir sans le souci de leur propre survie : ils peuvent donc se sacrifier pour accomplir leur mission. L’émotion humaine fournit pourtant un des meilleurs garde-fous contre le meurtre de civils. Le manque d’émotion peut faciliter l’acte de tuer. L’empathie et la compassion sont fondamentales dans l’identification d’un civil et le passage à l’acte.

Enfin, l’autonomie pose des problèmes de responsabilité. A l’heure actuel, aucun régime de responsabilité n’est satisfaisant en la matière. Faire peser la responsabilité des actes des robots autonomes sur les commandants ne semble pas juste car ils n’ont pas un contrôle suffisant sur ces machines. Il convient de rappeler qu’un commandant est tenu pour responsable des crimes de guerre commis par ses subordonnées s’il savait ou aurait dû savoir que l’individu planifiait un tel crime et qu’il n’a pas fait le nécessaire pour l’empêcher ou n’a pas puni l’individu après sa commission. En l’espèce, ce régime de responsabilité est inapplicable. La responsabilité du commandement pourrait éventuellement être engagée si le commandant connaissait à l’avance le potentiel d’action illégale et qu’il n’a rien fait pour l’empêcher. Cependant, n’ayant pas programmé le robot, il lui est difficile de connaître à l’avance ce potentiel. De plus, sur le moment, il ne peut pas empêcher le crime puisque le robot a été fabriqué pour agir de manière autonome.

Imputer la responsabilité au fabriquant ne tient pas non plus puisque le robot est sensé être autonome. Le programmeur ne peut pas prévoir avec certitude comment régira sa machine dans un environnement complexe. Le fait qu’il opère un choix non prévu par ses programmeurs est inhérent au fait qu’il soit autonome. Le programmeur ne pourrait être tenu pour responsable pénalement que s’il a programmé intentionnellement le robot dans le but de lui faire commettre un acte illégal.

On pourrait se fonder sur le régime de la responsabilité pour produits défectueux rendant les fabricants de robots responsables des dysfonctionnement de leurs produits. Cependant, il y a peu de chance qu’un fabricant de ce type de produits produise et vende des armes intrinsèquement dangereuses, sachant qu’il pourrait être tenu pour responsable en DIH (sans compter les retombées commerciales). De plus, cette responsabilité requiert un procès civil : il n’est pas sûr que des victimes de guerre (généralement pauvres et situées sur des théâtres éloignés) aient les moyens de plaider devant de telles juridictions.

Une réflexion sur “Faut-il être humain pour appliquer le droit international humanitaire?

  1. Pingback: L’humain et le droit international humanitaire | lexdih

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s