L’appel à une pause des Nations Unies dans le développement des « robots tueurs ».

Christopher Heyns, rapporteur spécial aux exécutions extrajudiciaires, sommaires ou arbitraires auprès des Nations Unies appellent  à une pause dans le développement de la robotique militaire dans son dernier rapport, en date du 9 avril 2013. Contrairement aux autres révolutions dans les affaires militaires, pour lesquelles les réflexions sérieuses ont émergé après le développement de nouvelles méthodes de guerre, il existe aujourd’hui une opportunité pour appréhender tous les aspects du développement des robots autonomes à capacité létale.

Le rapporteur spécial s’inquiète particulièrement des effets de cette technologie sur la protection du droit à la vie, garanti notamment par l’article l’article 6 du Pacte international sur les droits civils et politiques, que ce soit en situation de paix ou de conflit armé.

  • Place de l’humain dans la boucle.

Sont visés ici les robots autonomes, c’est-à-dire ceux pour lesquels l’humain est sorti de la « boucle » de décision. Il reste le programmeur du système robotique. C’est lui qui conçoit comment l’arme traduit en tâches les objectifs qui lui ont assignés par la programmation. L’humain procède également à la surveillance du système; il peut décider de le suppléer si nécessaire. On dit alors que l’humain est « sur la boucle ». Cependant, ce pouvoir de substitution est limité, la prise de décision du robot se mesurant souvent en nanosecondes. En outre, les informations utilisées par ce dernier ne sont pas directement accessibles au superviseur. Dès lors, l’humain est de facto sorti de la boucle.

L’autonomie doit être distinguée des dispositifs automatiques qui opèrent dans des environnements structurés et prévisibles.

  • Peser le pour et le contre.

Pour Christopher Heyns, la nécessité d’une réflexion est d’autant plus urgente étant donné la rapidité des développements technologiques en la matière, impulsés par les bénéfices réels que peuvent apporter les robots sur le plan militaire.

On peut déjà l’observer dans la pratique des targeted killing via les véhicules aériens de combat sans pilote (ou drones). Ils permettent la projection de force sur des territoires hostiles, évitant l’engagement risqué de troupes au sol. Ils sont un multiplicateur de forces, permettant de faire plus avec moins de personnel.

Il ne faut pas non plus négliger leur apport humanitaire. La possibilité de surveiller en permanence une cible et de l’engager au moment idoine, le tout dans un environnement confortable à des milliers de kilomètres du champ de bataille a contribué à la discrimination des frappes. A l’avenir, il n’est pas impossible que les drones soient dotés de capacités non létales pour immobiliser l’objectif, réduisant encore les risques de dommages collatéraux. En outre, le robot n’est pas sujet aux aléas de la condition humaine. Il n’a pas peur. Il ne cherche pas à se venger. Il ne panique pas. Il ne se met pas en colère. A moins qu’il ait été programmé pour, il ne se livre par à des actes d’hostilité intentionnel contre la population civile, comme, par exemple, la torture ou le viol.

Cependant, ces développement sont porteurs de potentialités plus inquiétantes. L’application du droit international humanitaire requiert des propriétés propres à l’humain: capacité de jugement dans une situation complexe, sens commun,  capacité d’analyse des intentions humaines. Si les humains sont faillibles, ils peuvent, à l’inverse, faire preuve de compassion, ce qui est déterminant dans les décisions de vie ou de mort en guerre.

  • Les conséquences sur l’usage de la force.

Par ailleurs, les robots posent le question d’un usage « aisé » de la force militaire car sans risque. Si, au cours de l’histoire, les passions humaines ont pu conduire à des guerres futiles et à des massacres effroyables, certaines propriétés humaines, de plus en plus effectives dans des sociétés modernes sensibles à la « souffrance à distance », rendent plus difficile l’usage de la force létale: la peur de la mort,  de perdre des proches, l’aversion pour le meurtre sont autant de barrières « naturelles », renforcées par des siècles de constructions juridiques et philosophiques envisageant la guerre comme une mesure de dernier recours.

Selon le rapporteur, cet édifice risque de s’effondrer avec la multiplication des armes augmentant la distance psychologique et physique entre son utilisateur et sa victime, supprimant alors les inhibitions prémunissant contre le meurtre. En outre, la perspective d’une guerre « zéro mort » (en réalité déjà effective depuis l’intervention au Kosovo) risque de rendre celle-ci plus commune. D’ailleurs, peut-on continuer à parler de « guerre » lorsqu’une seule des parties supportent les coûts en vies humaines liés au conflit?

  • Le respect du droit international humanitaire.

Enfin, dans quelle mesure un robot autonome peut-il respecter le droit international humanitaire? Là encore, la réponse oscille selon leur capacité à corriger les défaillances humaines.  Les capteurs existants, l’incapacité du robot à comprendre le contexte, la difficulté à définir le non-combattant en pratique, dans des environnements complexes, urbains où le militaire et le civil s’entremêlent et se confondent sont autant d’obstacles au respect du principe de distinction. Par contre, un robot peut tirer « en deuxième », « sans risque pour sa vie », afin de prendre le temps d’identifier sa cible. Dans certaines situations, ses capteurs permettent de lever le « brouillard de guerre » et d’empêcher les erreurs susceptibles d’être commis par les humains.

Le rapporteur est beaucoup plus catégorique s’agissant du principe de proportionnalité. Apprécier le caractère excessif des dommages aux personnes et aux biens civils en rapport avec l’avantage militaire attendu d’une attaque réclame une finesse d’analyse qui semble propre au jugement humain. En témoignent les termes employés par le Protocole Additionnel I aux Conventions de Genève faisant appel au « bon sens » et à la « bonne foi » du commandant dans son « évaluation subjective ».

Au final, le rapporteur spécial recommande au Conseil des droits de l’Homme d’appeler les États à appliquer un moratoire sur les tests, la production, l’assemblage, le transfert, l’acquisition, le déploiement et l’utilisation des robots autonomes à capacité létale en attendant qu’un cadre international soit adopté en la matière.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s