Enjeux juridiques et éthiques de la robotisation de la guerre

Dans un article à venir sur Policy Review, Kenneth Anderson et  Matthew Waxman s’intéressent aux enjeux juridiques et éthiques liés à l’autonomisation progressive des robots sur le champ de bataille. Actuellement, les drones ne sont pas autonomes. Ils requièrent encore des contrôleurs humains en temps réel, même localisés de loin. Cependant, ils sont de plus en plus automatisés dans leur fonction de vol. Ils peuvent, par exemple, être dotés de capacités d’auto-atterrissage.

Cette tendance va s’accentuer dans les années à venir. Certains observateurs estiment que la prochaine génération d’avions de chasse ne sera plus habitée, ou du moins, que l’avion habité sera assisté d’avions téléguidés. Pourquoi cette tendance à l’autonomisation? Car elle est un facteur de vitesse, atout indispensable dans la conduite de la guerre. En l’espèce, cette vitesse touche aussi bien le déplacement que la prise de décision. Or, il y a un point au-delà duquel  l’humain ne peut plus gérer cette vitesse (que ce soit physiquement dans un avion de chasse que cognitivement, avec tous les paramètres à prendre en compte).  Les drones seront de plus en plus automatisés afin de gagner en vitesse au détriment de l’Homme.

Cette « course à la vitesse » ne concerne pas que la manœuvre : les armes devront aussi s’adapter. Par exemple, les systèmes de défense modernes sur les navires de guerre américains sont capables de cibler automatiquement un missile ennemi, avec une surveillance humaine du fonctionnement du système car le processus de prise de décision humain est trop lent pour gérer les nombreux paramètres d’un missile à grande vitesse. Certains opérateurs militaires voient l’émergence d’armes automatisés comme une forme plus sophistiquée de missiles auto-guidés « fire-and-forget ».

Les drones auto-pilotés actuels et les futures armes autonomes, bien que basés sur des technologies et des impératifs opérationnels différents, génèrent des préoccupations éthiques et juridiques similaires. Avec l’amélioration des IA, les systèmes d’armement vont évoluer d’une robotique « automation » (soit l’exécution d’actions ou de séquences précises préprogrammées dans un environnement bien défini et contrôlé) à une robotique « autonomie » (le robot est capable d’agir pour s’adapter aux changement et aux environnements imprévisibles). Prenons l’exemple de soldats de maintien de la paix faisant face à la menace de snipers ou pris en embuscade dans un environnement urbain : de petits robots pourraient partir en éclaireur avec une automation « intermédiaire » : le robot pourrait être préprogrammé afin de repérer certaines signatures ennemies et alerter l’opérateur humain de la menace, qui déciderait ensuite de presser ou non la détente. Le système pourrait prochainement ne pas requérir le commandement positif de l’Homme, celui-ci ne faisant que s’opposer ou approuver une attaque lancée par la machine.

Il est évident que, bientôt, la communication entre l’Homme et le système d’arme pourra être interrompu ou piraté. Une solution technologique pour contrer cette vulnérabilité serait de laisser le robot exécuter son propre programme voire de le rendre indépendant.

Cette autonomisation ne se limite pas qu’à la guerre conventionnelle ; elle va affecter de plus en plus les opérations clandestines. On peut imaginer, dans le cadre du raid contre Ben Laden, des robots dotés d’une technologie de reconnaissance faciale chargés de localiser et d’exécuter la cible, avec des opérateurs humains à distance comme garde-fou, disposant de très peu de temps pour interrompre le programme.

Cela pourrait ne pas être nécessaire car le robot aura déjà intégré les exigences du droit internationale humanitaires. Certains roboticiens ont créé des algorithmes afin de « capter » les principes de distinction et de proportionnalité :

  • pour le principe de distinction, il s’agirait de créer une liste d’objectifs légaux, incluant les personnes et les armes tirant sur le robot, et d’ajouter progressivement les caractéristiques des objectifs légaux n’étant pas sur la liste.
  • pour la proportionnalité, il s’agirait de définir le standard du caractère « excessif » afin de ne pas procéder à l’attaque sur la cible licite si ce standard était atteint.

Plusieurs objections peuvent être opposées à cette autonomisation des robots. Tout d’abord, on peut être sceptique face à la promesse qu’une intelligence artificielle remplisse ces critères éthiques et juridiques alors qu’ils nécessiteraient une intuition, une connaissance et un jugement propre à l’Homme. Sur le plan moral, l’Homme ne peut pas être placé en-dehors du processus de mise à feu. Une machine ne pourra jamais remplacée un Homme doté d’une conscience et d’une faculté de jugement moral (même si celle-ci est perfectible). Que la machine soit statique ou mobile, simple ou complexe, c’est la violence automatisée en réponse à un signal qui est problématique. La décision de blesser ou de tuer ne devrait pas être fait par des machines.

En outre, se pose la question du point de bascule vers une autonomie qui serait inadmissible étant donné la progressivité de l’intégration de fonctions armées automatisées.

Par ailleurs, se pose la question de la responsabilité en cas de crime de guerre. Si la décision de faire feu est prise par la machine, qui peut être tenu pour responsable ? Le soldat qui a permis l’utilisation du robot et a pris une mauvaise décision ? Le commandant qui a choisi de l’employer sur le champ de bataille ? L’ingénieur qui l’a programmé ?

En principe, la responsabilité incombe à la dernière personne ayant donné l’ordre d’autoriser une activité spécifique. Cependant, ce standard risque d’être insuffisant à mesure que la vitesse et l’opacité de ces systèmes vont augmenter. Il y a des raison de croire que l’Homme se reposera davantage sur le jugement de la machine en cas de pression et de circonstances troubles. Au début des années 80, le système semi-automatisé Aegis a identifié par erreur un avion civil iranien qui a été ciblé par des opérateurs humains. Bien que le système ne fonctionnait pas sur un mode de tir automatisé, les opérateurs humains se sont fiés au jugement de la machine, ce qui s’est révélé tragique.

Enfin, la possibilité d’une guerre sans risque pose la problème de son instrumentalisation.

Face à ces problèmes, au risque d’une nouvelle course aux armements, et aux possibilités d’emploi asymétrique de ces armes par des groupes non-étatiques, Waxman et Anderson plaident pour l’établissement graduel de norme internes et de bonnes pratiques débattues et appliqués au processus de développement d’armes américains, puis étendus au reste du monde. À ce titre, il faut rappeler que le droit international humanitaire impose aux États d’intégrer ses prescriptions dans le développement de nouvelles armes.

Pour les deux auteurs, les États-Unis ne doivent pas céder à la tentation du secret et de l’opacité qui pousserait d’autres acteurs à développer et imposer leurs propres pratiques. Néanmoins, ils s’opposent également à l’adoption d’un traité international qui poserait beaucoup de difficultés (du fait, entre autres, de l’évolution rapide de ces technologies et des problèmes d’application du droit international).

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s