Kill chain

Dans Kill chain. The rise of the high tech assassins, le journaliste Andrew Cockburn retrace la généalogie des opérations contre-terroristes menées voilà plus d’une décennie par les États-Unis contre les organisations terroristes que ce soit sur des théâtres de guerre qu’en-dehors des zones d’hostilités actives. Elles sont globalement le résultat de deux évolutions convergentes de la conception américaine de la guerre.

Kill chain

Tout d’abord, il y a la recherche constante d’une capacité omnisciente de ce qui se passe sur le champ de bataille afin de frapper les objectifs militaires pertinents perçcus comme susceptibles de faire tomber l’ennemi. L’auteur revient notamment en détail sur un épisode : le projet « Igloo white » de la fin des années 60 et du début des années 70, du nom de cette barrière électronique bardée de capteurs chargée de détecter, d’identifier et de neutraliser les mouvements de troupes vietcongs dans la jungle. Ambitieux (il était même prévu de faire intervenir des drones), ce projet allait s’avérer être un échec. En fait, il portait déjà les germes des déconvenues à venir, soit une guerre automatisée reposant sur une masse d’informations recueillie par une technologie de pointe, afin de mieux identifier les « nœuds critiques » susceptibles de faire tomber l’ennemi mais finalement éloigné des réalités de la guerre avec tout ce qu’elle peut contenir d’aléas, de « frictions » sans compter le comportement de l’adversaire.

Ainsi, cet échec n’allait pas remettre en cause cette quête de l’omniscience, comme en témoigne le projet « Assault breaker » dans les années 80. L’idée était de se doter d’avions radars situés loin derrière les lignes ennemies capables de détecter ses forces militaires. L’objectif était de détruire en quelques heures les divisions soviétiques de renfort afin de les empêcher d’exploiter une défaillance du système de défense de l’OTAN, et ce, sans recourir à l’arme nucléaire. On remarque, au passage, que ces innovations sont toujours justifiées au nom d’une « guerre brève mais humaine », véritable leitmotiv de la guerre moderne, du Code Lieber jusqu’aux attaques informatiques. L’effondrement de l’empire Soviétique n’allait pas offrir l’occasion de tester cette technologie. Peu importe, elle allait être mise en œuvre dans le contexte de la guerre du Golfe, laboratoire des stratégies (les cinq cercles et la systématisation de l’ennemi de Warden) et des technologies de pointe (furtivité, armement de précision…). En l’espèce, on peut citer le Joint Surveillance Target Attack Radar ou JSTARS, soit l’avion radar tel qu’envisagé par « Assault breaker ». En dépit de ses capacités d’observation, l’appareil n’a pas pu repérer les lanceurs de missiles SCUD irakiens, placés pourtant en haut des cibles prioritaires. C’est là une autre constante de cette quête d’omniscience : les défaillances techniques les empêchant d’accomplir justement ce pourquoi elles étaient prévues.

À cet égard, Cockburn se penche longuement sur les développements chaotiques du drone Predator. On peut citer, entre autres, le rapport du Bureau de test opérationnel et d’évaluation du Pentagone qui livrait, peu après les attentats du 11 septembre, un rapport édifiant sur l’engin. Outre sa sensibilité aux mauvaises conditions climatiques et ses problèmes de surchauffe de moteur, l’appareil était loin de remplir ses promesses de précision. Lors des tests, il n’était pas capable de repérer plus de deux tiers de ses cibles. La caméra de jour ne faisait pas la distinction entre un char et un camion. La caméra infrarouge pouvait détecter une présence ; mais dans 21% des cas, elle ne pouvait pas l’identifier. Résultat : le Predator a été jugé opérationnellement ineffectif. Trop tard : les politiques étaient acquis à l’idée de tuer à distance.

Pourquoi ?

Car s’est progressivement développée la croyance que la neutralisation et la destruction de certains objectifs (autres que purement militaires) pouvait mettre un terme à la guerre : c’est la seconde évolution de la guerre annoncée en introduction. Il s’agit du débat sur l’emploi de la force militaire à des fins de « décapitation » : en neutralisant la direction politique et militaire de l’ennemi, on pense provoquer l’effondrement de l’État ou de l’organisation. Or, depuis le début, ce type d’action est loin de faire l’unanimité. L’auteur nous plonge à cette occasion dans les débats qui ont accompagné l’opération Foxley, le projet d’assassinat d’Hitler par le Service Operation Executive (SOE), l’agence britannique chargée des opérations clandestines en Europe créée par Churchill en 1943. Il montre que les bénéfices étaient loin d’être évidents en terme militaires. Richard Thornley, un expert de l’Allemagne en charge des opérations de subversion et de sabotage au sein du SOE, dénonçait une opération contre-productive. L’élimination d’Hitler l’aurait érigé en mythe avec le risque de faire perdurer le nazisme dans les esprits. De plus, ses erreurs stratégiques à répétition étaient considérées comme une aide non négligeable dans la guerre menée par les Britanniques. Thornley se place même sur le plan de la morale estimant qu’il serait « désastreux » d’en être réduit à de « basses méthodes » pour défaire la machine de guerre nazie. Si ce projet a avorté, d’autres ont abouti, sans incidence sur le cours du conflit, comme l’élimination de l’amiral Yamamoto en 1943. Pire, certains ont eu des répercussions terribles sur les populations civiles, comme l’assassinat d’Heydrich, le Général SS maître de la Tchécoslovaquie occupée.

Pour autant, ces échecs ne vont pas dissuader les États-Unis de recourir à cette méthode au cours de la Guerre Froide, du Guatemala au Viêt-Nam (programme Phoenix) en passant, entre autres, par Cuba. L’adoption d’un décret interdisant l’assassinat à des fins de politique étrangère par le Président Ford, puis reconduit par ses successeurs, a freiné pour un temps le recours à la « décapitation ». Mais c’est pour être mieux reconduite dans les années 80, notamment au Nicaragua et contre la Libye de Kadhafi. Motif : ce type d’action est licite en cas de légitime défense contre une guérilla ou des groupes terroristes.

En dépit de ses résultats plus que mitigés, cette tactique est poursuivie dans le cadre de la lutte contre les cartels de la drogue au Mexique et en Colombie : c’est la « kingpin strategy » (littéralement, la stratégie des pivots). En partant du principe que les cartels constituent une menace hiérarchiquement structurée, on considère que l’élimination de leurs chefs peut les faire tomber. Erreur : cela contribue, au contraire, à accélérer le trafic ! À partir de ce moment, intervient un personnage récurrent dans le récit de Cockburn : Rex Rivolo. Cet ancien pilote de l’Air Force (qui a notamment servi au Viêt-Nam), titulaire d’un doctorat en physique et porteur d’un projet de cartographie spatiale, revenait à ses premiers amours à l’aube des années 90 : la Défense, en travaillant en tant qu’analyste pour l’Institute for Defense Analysis. Il était notamment chargé d’étudier l’efficacité de la « kingpin strategy ». Il démontre que plus la récompense est importante, plus les trafiquants sont près à prendre des risques. Mais au-delà d’un certain seuil, ils sont découragés. Dès lors, il faut identifier le maillon faible de la chaîne : ce sont les pilotes d’avion chargés d’assurer le transport de la drogue, du Pérou où la coca est cultivée en Colombie, pays où a lieu la production. En supprimant les chefs, on met fin aux monopoles et donc on exacerbe la concurrence entre les groupes de trafiquants ce qui conduit à la baisse des prix.

Les résultats sont tout aussi mitigés dans le cadre de la lutte contre le terrorisme. Rex Rivolo revient à la charge avec une étude portant sur les effets de l’élimination des cibles de haute valeur (High Value Targets) en Irak. Il démontre que cela entraîne une augmentation des attaques contre l’Armée américaine. Dans un rayon de trois kilomètres autour de la base d’opération de la cible, les attaques dans les trois jours suivant l’élimination augmentent de 40%. Pourquoi ? Car les dirigeants sont rapidement remplacés par des recrues généralement plus jeunes et plus violentes, soucieuces de prouver leur valeur et désireuses de se venger.

Pourtant, la méthode est appliquée en Afghanistan et en Irak avec (plus que) l’assentiment des politiques. Là encore, elle se révèle être un échec (plus de 50 cibles de haute valeur sont visées au début du conflit irakien en 2003. Aucune n’est touchée mais une centaines de civils meurent suite à ces attaques). Parallèlement, le complexe militaro-industriel ne cesse d’investir des sommes de plus en plus pharaoniques dans des projets démesurés. À ce titre, il faut lire le récit édifiant du Gorgon Stare, une plateforme aérienne de surveillance capable de transmettre en temps réel des vidéos des mouvements physiques d’une ville entière. À lui seul, l’appareil incarne l’hubris technologique dans la quête d’une omniscience totale. Pourtant, dans les faits, le système ne fonctionne tout simplement pas au point qu’il ne permette pas de distinguer des personnes de la végétation (entre autres) ! La Commission Sénatoriale des services armés remet un rapport accablant. Cela n’empêche pas l’appareil d’être déployé en Afghanistan, sans succès.

Au final, l’auteur dresse un véritable réquisitoire contre la guerre de plus en plus automatisée livrée par les États-Unis. Sur ce point, l’ouvrage aurait peut-être mérité plus de mise en perspective à la fois géographique (seule l’expérience américaine est relatée) et spatiale (l’assassinat politique remonte à l’Antiquité). Il aurait également mérité d’être plus contradictoire: par exemple, le débat sur l’effectivité des frappes de drones est plus complexe qu’il n’y paraît. En fait, derrière la « guerre automatisée », c’est le bombardement stratégique, qui lui est étroitement associé, qui est visé. En effet, les germes des opérations contre-terroristes contemporaines sont contenus dans la théorie de l’« industrial fabric » des penseurs américains de la puissance aérienne de l’entre-deux-guerre (consistant à cibler le tissu économique et industriel d’une Nation afin de briser, en théorie, le moral d’une population). C’est l’apport de l’ouvrage de Cockburn que de se placer du point de vue de l’effectivité militaire, là où d’autres se placent sur le terrain de la philosophie ou de la morale. Au fond, le bombardement stratégique n’a jamais vraiment marché pour Cockburn. Or, à chaque victoire, politiques et militaires (exceptées certaines personnalités) se sont convaincus du contraire. D’où cette fuite en avant dans « la guerre en distance ». À cet égard, le livre fourmille d’histoires et autres anecdotes, l’auteur s’appuyant aussi bien sur une bibliographie solide que sur des documents de premières mains et des témoignages directs de personnels du renseignement et de l’Armée.

Le projet de voir tout ce qui se passe sur le champ de bataille et de pouvoir détruire tout objectif militaire instantanément est en passe de s’achever, et ce, à l’échelle du globe. Malgré la mort d’Oussama Ben Laden, Al-Qaïda est toujours là. La guerre aérienne s’est étendue aux théâtres irakiens et syriens. Les budgets de défense diminuent dans un contexte d’austérité alors que ceux dévolus aux forces spéciales croissent, de même que les investissements dans la technologie des drones, toujours plus furtifs, captifs, endurants, létaux et automatisés. Pourtant, les résultats sur le terrain continuent de laisser à désirer. La technologie a beau fournir quantités de données donnant lieu à de multiples graphiques et autre diagrammes, elles restent une abstraction éloignée d’une réalité plus complexe, plus ambigüe. En découle une vision « mécanique », « déterministe » de la guerre, avec des individus qui doivent être automatiquement ciblés dès lors qu’ils répondent à des critères et à des « patterns » préalablement définis, critères qui ne cessent d’être élargis pour remplir de multiples « kill list », au point qu’on ne puisse plus vraiment parler d’ « éliminations ciblés » (qui sont devenus minoritaires dans les frappes de drones, dominées par les « signature strikes »). Toute cette technologie « donne une fausse impression de précision permettant d’accepter plus facilement l’impossible ». Nul doute que la prochaine étape, après l’automatisation, soit l’autonomie.