La lettre contre les « robots tueurs » et ses réactions

La campagne contre les robots tueurs a franchi une nouvelle étape avec la publication d’une lettre ouverte appelant à l’interdiction des « armes autonomes offensives hors du contrôle humain significatif ». Parmi les signataires, on trouve, entre autres, de grands noms de la recherche en sciences dures, en sciences humaines et sociales, des patrons et des ingénieurs travaillant dans les nouvelles technologies ainsi que des membres de la société civile. Le physicien et cosmologiste Stephen Hawking, le co-fondateur d’Apple Steve Wozniak, le professeur Noam Chomsky du Massachusetts Institute of Technology ou encore Elon Musk, directeur de SpaceX et Tesla, font partie des 19 000 personnes ayant signé cette lettre.

SGR-1

Le Samsung SGR-1, positionné à la frontière entre les deux Corées, est capable de détecter, cibler et, en théorie, d’attaquer une cible de façon autonome. En pratique, un humain doit approuver le tir.

  • Contenu de la lettre

Là où la campagne met traditionnellement l’accent sur la substitution de l’humain par la machine dans la décision de recourir à la force conduisant à des violations du droit international humanitaire (DIH) et des droits humains, et à un vide de responsabilité, la lettre mentionne la course globale aux armements liés à l’intelligence artificielle comme « question clé pour l’humanité aujourd’hui ». L’enjeu est de savoir s’il faut commencer une telle course ou l’empêcher. Elle pointe la responsabilité des grandes puissances militaires qui, si elles mettent le doigt dans l’engrenage, rendront cette course inévitable avec comme risque que ces armes autonomes deviennent les « kalachnikovs de demain » en raison de leur faible coût. Les « terroristes », les « dictateurs » et autres « seigneurs de guerre » auront alors facilement accès à ces armes sur le marché noir.

Lire la suite…

Contrôle humain significatif et systèmes d’armes létaux autonomes

Du 13 au 17 avril, les membres délégués de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques se sont à nouveau réunis pour discuter de la problématique des systèmes d’armes létaux autonomes (SALA). Ces derniers peuvent être définis comme des « systèmes d’arme robotique qui, une fois activés, peuvent sélectionner et engager des cibles sans l’intervention d’un opérateur humain. (…) Le robot dispose d’un choix autonome dans la sélection de l’objectif et l’usage de la force létale ».

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d'opérer de façon autonome en essaim

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d’opérer (mais pas de tuer) de façon autonome en essaim

Qualifiés de « robots tueurs » par leurs opposants, ces derniers font campagne depuis plusieurs années pour l’adoption d’un traité international visant l’interdiction préventive de cette technologie. En effet, ils estiment qu’elle est incapable de respecter le droit international humanitaire (DIH) en l’absence de la faculté de jugement humain. En dépit de leur puissance de calcul, de leurs capteurs ou de leur mémoire, les machines n’auraient pas la capacité, pour ne pas écrire la sensibilité, de comprendre avec justesse une situation complexe pouvant conduire à l’emploi de la force létale.

Lire la suite…

« Robots tueurs » et prise de décision

Du 10 au 14 novembre s’est tenue la dernière réunion des États Parties à la Convention sur certaines armes classiques pour examiner l’état et le fonctionnement de la Convention et des Protocoles. La question des systèmes d’armes autonomes a été abordée conformément au mandat adopté lors de la réunion précédente des Hautes Parties contractantes.

  • La campagne contre les « robots tueurs »

Il convient de rappeler que cette initiative a été lancée suite à une campagne d’un collectif d’ONG souhaitant interdire préventivement ce type d’arme. Dans un rapport intitulé « Losing humanity », Human Rights Watch (HRW) concluait à l’incapacité des « robots tueurs » à respecter le droit international humanitaire et à protéger les non-combattants. L’ONG a récemment réitéré sa position par la voix de sa directrice à la division armement Mary Wareham. Puisqu’il y a des doutes qu’un système d’arme autonome ait les capacités de distinguer entre les civils et les combattants, les États doivent adopter au plus vite un Traité interdisant préventivement les systèmes d’arme ne requérant pas un contrôle humain significatif dans les fonctions de ciblage et de tir. Dans ce combat, HRW et le collectif de la campagne contre les « robots tueurs » ont reçu le soutien (inédit) d’une société canadienne spécialisée dans la production de véhicules autonomes pour la recherche et le développement appelée Clearpath Robotics dont le directeur technologique et co-fondateur Ryan Gariepy a garanti ne pas fabriquer des « robots équipés d’armes mortelles retirant de l’équation toute intervention humaine ». Il ne s’agit pas, selon lui, d’empêcher « l’utilisation de toutes formes de robots autonomes dans le domaine militaire » mais de s’opposer aux « systèmes létaux d’armes autonomes », c’est-à-dire ceux où « l’humain ne prend pas, pour la machine, la décision finale de recourir à des actions potentiellement létale ». La société reprend ainsi l’argumentaire de la campagne invoquant le caractère impératif de la faculté de jugement humain dans la prise de décision de tuer, et le risque que des dirigeants recourent plus souvent à ces engins anonymes, inhabités et irresponsables.

Lire la suite…

Évolution éthique et juridique du bombardement américain

Alors que les bombardements de la coalition internationale (dominée par es États-Unis) se poursuivent en Irak et en Syrie, les premières allégations de victimes civiles sont apparues. En attendant des rapports plus détaillés, les autorités américaines se sont défendues en indiquant que les standards restrictifs des opérations contre-terroristes en-dehors des zones d’hostilités actives publiés en mai 2013 ne s’appliquaient pas en l’espèce. Et pour cause : nous sommes en présences de zones d’hostilités actives ; autrement dit, un conflit armé qui requiert l’application du droit international humanitaire dont les règles de ciblage sont plus « permissives » que les « éliminations ciblées ».

US way of bombing
Doit-on s’attendre alors à une augmentation exponentielle du nombre de victimes civiles liée à l’emploi de la force aérienne ? S’il est peut-être trop tôt pour se prononcer, on peut d’ores et déjà affirmer que l’intensification des bombardements couplée aux réponses asymétriques des combattants de l’État islamique risque d’exposer la population civile aux hostilités. Sur ce point, il n’est pas inutile de se reporter à la pratique récente (et moins récente) du bombardement aérien et des normes qui le gouvernent pour comprendre en partie ce qui se joue en Syrie et en Irak.

Lire la suite…

Cadrer le débat sur les systèmes d’armes autonomes

Du 13 au 16 mai 2014, les 117 États Parties à la Convention sur certaines armes classiques sont conviés à l’Office des Nations Unies à Genève pour discuter de la problématique des systèmes d’armes létaux autonomes. Il s’agit de la première réunion d’experts sur ce sujet. Cette initiative est notamment le fruit d’une campagne d’un collectif d’ONG appelant à une interdiction préventive de ce type d’arme, qu’elles considèrent comme étant intrinsèquement incompatible avec le droit international humanitaire. Toutefois, ce sont les États parties à la Convention qui ont décidé de s’emparer de ce sujet lors de leur réunion annuelle du 15 novembre 2013. La décision a d’ailleurs fait l’objet d’un consensus, fait rare en matière de désarmement. Les débats seront présidés par l’ambassadeur français auprès de la Conférence sur le désarmement, Jean-Hugues Simon-Michel, à l’origine de cette initiative. Une conférence des États Parties est ensuite prévue pour novembre. Cette procédure est susceptible de déboucher sur un Protocole VI à la Convention sur certaines armes classiques contenant des dispositions sur les robots létaux autonomes.

brimstone2

Le missile britannique Brimstone

Un des buts de la réunion sera de cerner au plus près l’autonomie, notion complexe noyée dans des considérations techniques. À cela s’ajoute le facteur politique, la notion étant susceptible d’être définie au gré de l’intérêt des acteurs qui s’en emparent.
De prime abord, la définition de l’autonomie semble consensuelle.

Lire la suite…

De la précision à l’autonomie : la technologie, un facteur polémogène ?

Le Center for a New American Century vient de publier un rapport sur la guerre à l’ère robotique. Il décrit le changement opéré par l’avènement des plates-formes inhabitées sur l’art de la guerre. Le rapport parle de révolution technico-militaire. Celle-ci intervient lorsque de « nouvelles technologies militaires, concepts opérationnels et organisations se combinent pour produire des améliorations spectaculaires dans l’efficacité militaire et le potentiel de combat ». Dès lors, cette révolution met fin au régime militaire existant, défini comme « la façon dont est conduite la guerre sur une période temporelle stratégiquement cohérente ».

Atlas, un des robots humanoïde de Boston Dynamics

Atlas, un des robots humanoïdes de Boston Dynamics

« Faire fonctionner un algorithme comme le cerveau humain »

Alors que le nombre de frappes de drones a baissé de manière significative en 2013, les débats éthiques et juridiques sur la robotisation de la guerre sont loin d’être terminés. En effet, la problématique des robots létaux autonomes sera au menu des discussions des pays participant à la Convention sur certaines armes classiques au mois de mai de cette année. Cette initiative fait suite à une campagne d’un collectif d’organisations non-gouvernementales, lancée en avril 2013, appelant à l’interdiction des « robots tueurs ». Inquiet des répercussions de cette technologie sur la protection du droit à la vie, le rapporteur spécial aux exécutions extrajudiciaires, sommaires ou arbitraires auprès des Nations Unies, Christopher Heyns,  appelait à une pause dans le développement de la robotique militaire.

Le drone X-47B.

A l’origine de cette campagne, on trouve un rapport de l’ONG Human Rights Watch intitulé « Losing humanity » et publié en novembre 2012 concluant à l’impossibilité, pour les robots létaux autonomes, de se conformer à la norme d’immunité des non-combattants assurée par le droit international humanitaire. Il convient de rappeler que l’autonomie vise ici la possibilité de sélectionner des cibles humaines et de les engager, sans intervention humaine. Le Département américain de la Défense ne tardait pas à réagir en publiant une directive rejetant toute possibilité de prise de décision relative à l’emploi de la force létale de façon autonome par un robot.

Lire la suite…

Faut-il interdire les robots létaux autonomes ?

L’année 2013 a vu le lancement de la campagne visant à interdire les armes robotiques entièrement autonomes, ou « robots tueurs » par un collectif de trente ONG. L’année 2014 sera-t-elle l’année de leur interdiction effective ? C’est ce que souhaite l’ONG Human Rights Watch (HRW) qui vient de publier avec l’Harvard Law School Human Rights Clinic un mémorandum plaidant en faveur d’une interdiction préventive de ces armes. Ce texte s’adresse tout particulièrement aux délégués des gouvernements conviés à la réunion annuelle de la Convention sur certaines armes classiques qui se tiendra à Genève en 2014. Il semble avoir porté ces fruits puisque les États Parties à la Convention ont décidé vendredi 15 novembre 2013 que la question des robots pleinement autonomes sera au menu des discussions en mai 2014.

Le TALON de Foster-Miller Inc

Qu’entend-on par « robot pleinement autonome » ? Selon, HRW cela inclut aussi bien les armes inhabitées qui ciblent et engagent un objectif sans intervention humaine que ceux qui le font sous la supervision d’un humain. Si les premiers n’existent pas encore, et sont donc susceptibles de faire l’objet d’une interdiction préventive, certains systèmes robotiques existants sont proches de la définition des seconds. Par exemple, le système anti-missile Phalanx permet aux navires qui en sont équipés de détecter, traquer et engager automatiquement les menaces militaires anti-aériennes. L’inclusion de ce type d’arme à l’ « autonomie supervisée » dans la catégorie des armes pleinement autonomes se justifie par le fait que, dans la pratique, le processus de prise décision est tellement rapide (mesuré en nanosecondes) et l’information étant inaccessible au superviseur, l’humain est de facto « en-dehors de la boucle ».

Lire la suite…