Les régions tribales pakistanaises : l’exception des opérations contre-terroristes américaines ?

La révélation de la mort de deux otages occidentaux suite à une frappe de drone au Pakistan le 15 janvier 2015 a relancé le débat sur la précision de cette arme et, in fine, sur les standards politiques et juridiques employés dans le cadre de la lutte américaine contre le terrorisme. En effet, l’incident s’est produit en dépit de la quasi certitude qu’il n’y avait pas de civils dans la zone conformément aux lignes de conduite publiées en 2013.

Le MQ-9 Reaper: le drone des "signature strikes"

Le MQ-9 Reaper: le drone des « signature strikes »

Dans un article au Wall Street Journal, Adam Entous donne une des clefs susceptibles d’éclairer cet incident : les frappes de drone dans les régions tribales pakistanaises seraient exemptées de la condition de « menace imminente », donnant à la CIA « plus de flexibilité » que dans les autres zones où sont conduites des frappes de drones contre-terroristes.

Lire la suite…

Publicités

Contrôle humain significatif et systèmes d’armes létaux autonomes

Du 13 au 17 avril, les membres délégués de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques se sont à nouveau réunis pour discuter de la problématique des systèmes d’armes létaux autonomes (SALA). Ces derniers peuvent être définis comme des « systèmes d’arme robotique qui, une fois activés, peuvent sélectionner et engager des cibles sans l’intervention d’un opérateur humain. (…) Le robot dispose d’un choix autonome dans la sélection de l’objectif et l’usage de la force létale ».

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d'opérer de façon autonome en essaim

Le programme LOCUST de la Navy permettra à plusieurs mini-drones d’opérer (mais pas de tuer) de façon autonome en essaim

Qualifiés de « robots tueurs » par leurs opposants, ces derniers font campagne depuis plusieurs années pour l’adoption d’un traité international visant l’interdiction préventive de cette technologie. En effet, ils estiment qu’elle est incapable de respecter le droit international humanitaire (DIH) en l’absence de la faculté de jugement humain. En dépit de leur puissance de calcul, de leurs capteurs ou de leur mémoire, les machines n’auraient pas la capacité, pour ne pas écrire la sensibilité, de comprendre avec justesse une situation complexe pouvant conduire à l’emploi de la force létale.

Lire la suite…