Les défis contemporains du ciblage

Dans un ouvrage collectif récent, Michael Schmitt, Paul Ducheine et Franz P. B. Osinga fournissent un éclairage complet sur une notion inhérente à la guerre : le ciblage. Une lecture incontournable pour qui veut saisir, entre autres, les enjeux des bombardements aériens actuellement menés en Syrie et en Irak.

Intitulé Targeting : the challenges of modern warfare, le livre se présente comme une étude multidisciplinaire sur le ciblage. Celui-ci peut se définir comme « l’application délibérée de capacités contre des cibles pour générer des effets afin d’atteindre des objectifs spécifiques. Il s’agit de l’application de moyens de guerre (des armes) pour atteindre des cibles (personnes ou objets) en utilisant une variété de méthodes (tactiques) qui créent des effets contribuant aux buts planifiés » (p. 2). Le ciblage n’est rien moins que le « pont entre les fins et les moyens de la guerre » (p. 2). C’est pourquoi son étude est salutaire que ce soit au niveau du monde universitaire que du grand public, toujours plus exposé au spectacle de la « souffrance à distance ». En effet, les auteurs ont pour ambition de pallier aux insuffisances du débat public au sujet des opérations de guerre afin de le propulser à un niveau « mature et sophistiqué » (p. 4).

Targeting

Lire la suite…

Publicités

La lettre contre les « robots tueurs » et ses réactions

La campagne contre les robots tueurs a franchi une nouvelle étape avec la publication d’une lettre ouverte appelant à l’interdiction des « armes autonomes offensives hors du contrôle humain significatif ». Parmi les signataires, on trouve, entre autres, de grands noms de la recherche en sciences dures, en sciences humaines et sociales, des patrons et des ingénieurs travaillant dans les nouvelles technologies ainsi que des membres de la société civile. Le physicien et cosmologiste Stephen Hawking, le co-fondateur d’Apple Steve Wozniak, le professeur Noam Chomsky du Massachusetts Institute of Technology ou encore Elon Musk, directeur de SpaceX et Tesla, font partie des 19 000 personnes ayant signé cette lettre.

SGR-1

Le Samsung SGR-1, positionné à la frontière entre les deux Corées, est capable de détecter, cibler et, en théorie, d’attaquer une cible de façon autonome. En pratique, un humain doit approuver le tir.

  • Contenu de la lettre

Là où la campagne met traditionnellement l’accent sur la substitution de l’humain par la machine dans la décision de recourir à la force conduisant à des violations du droit international humanitaire (DIH) et des droits humains, et à un vide de responsabilité, la lettre mentionne la course globale aux armements liés à l’intelligence artificielle comme « question clé pour l’humanité aujourd’hui ». L’enjeu est de savoir s’il faut commencer une telle course ou l’empêcher. Elle pointe la responsabilité des grandes puissances militaires qui, si elles mettent le doigt dans l’engrenage, rendront cette course inévitable avec comme risque que ces armes autonomes deviennent les « kalachnikovs de demain » en raison de leur faible coût. Les « terroristes », les « dictateurs » et autres « seigneurs de guerre » auront alors facilement accès à ces armes sur le marché noir.

Lire la suite…

Contrôle humain significatif et systèmes d’armes létaux autonomes

Du 13 au 17 avril, les membres délégués de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques se sont à nouveau réunis pour discuter de la problématique des systèmes d’armes létaux autonomes (SALA). Ces derniers peuvent être définis comme des « systèmes d’arme robotique qui, une fois activés, peuvent sélectionner et engager des cibles sans l’intervention d’un opérateur humain. (…) Le robot dispose d’un choix autonome dans la sélection de l’objectif et l’usage de la force létale ».

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d'opérer de façon autonome en essaim

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d’opérer (mais pas de tuer) de façon autonome en essaim

Qualifiés de « robots tueurs » par leurs opposants, ces derniers font campagne depuis plusieurs années pour l’adoption d’un traité international visant l’interdiction préventive de cette technologie. En effet, ils estiment qu’elle est incapable de respecter le droit international humanitaire (DIH) en l’absence de la faculté de jugement humain. En dépit de leur puissance de calcul, de leurs capteurs ou de leur mémoire, les machines n’auraient pas la capacité, pour ne pas écrire la sensibilité, de comprendre avec justesse une situation complexe pouvant conduire à l’emploi de la force létale.

Lire la suite…

« Robots tueurs » et prise de décision

Du 10 au 14 novembre s’est tenue la dernière réunion des États Parties à la Convention sur certaines armes classiques pour examiner l’état et le fonctionnement de la Convention et des Protocoles. La question des systèmes d’armes autonomes a été abordée conformément au mandat adopté lors de la réunion précédente des Hautes Parties contractantes.

  • La campagne contre les « robots tueurs »

Il convient de rappeler que cette initiative a été lancée suite à une campagne d’un collectif d’ONG souhaitant interdire préventivement ce type d’arme. Dans un rapport intitulé « Losing humanity », Human Rights Watch (HRW) concluait à l’incapacité des « robots tueurs » à respecter le droit international humanitaire et à protéger les non-combattants. L’ONG a récemment réitéré sa position par la voix de sa directrice à la division armement Mary Wareham. Puisqu’il y a des doutes qu’un système d’arme autonome ait les capacités de distinguer entre les civils et les combattants, les États doivent adopter au plus vite un Traité interdisant préventivement les systèmes d’arme ne requérant pas un contrôle humain significatif dans les fonctions de ciblage et de tir. Dans ce combat, HRW et le collectif de la campagne contre les « robots tueurs » ont reçu le soutien (inédit) d’une société canadienne spécialisée dans la production de véhicules autonomes pour la recherche et le développement appelée Clearpath Robotics dont le directeur technologique et co-fondateur Ryan Gariepy a garanti ne pas fabriquer des « robots équipés d’armes mortelles retirant de l’équation toute intervention humaine ». Il ne s’agit pas, selon lui, d’empêcher « l’utilisation de toutes formes de robots autonomes dans le domaine militaire » mais de s’opposer aux « systèmes létaux d’armes autonomes », c’est-à-dire ceux où « l’humain ne prend pas, pour la machine, la décision finale de recourir à des actions potentiellement létale ». La société reprend ainsi l’argumentaire de la campagne invoquant le caractère impératif de la faculté de jugement humain dans la prise de décision de tuer, et le risque que des dirigeants recourent plus souvent à ces engins anonymes, inhabités et irresponsables.

Lire la suite…