19.12.2024
Intelligence artificielle : quel risque terroriste ?
Tribune
29 mai 2018
L’intelligence artificielle (IA) dessine un nouvel horizon d’attente pour les sociétés contemporaines. Mais la crainte de voir les technologies de l’IA se substituer aux humains sur le champ de bataille, physique, et cyber, s’est elle aussi considérablement diffusée. Les armées à travers le monde y prêtent particulièrement attention, et elles ne sont pas les seules : les groupes terroristes eux aussi cherchent désormais à s’emparer de l’IA pour accroître leurs capacités d’action.
Les services de contre-terrorisme ont pour habitude de sous-estimer la capacité des groupes terroristes à s’emparer des technologies émergentes, à en maîtriser l’utilisation et à les mettre au service de leur lutte. Or, l’essor de Daech nous l’a suffisamment prouvé, les terroristes se sont avérés particulièrement habiles dans le maniement de ces technologies, en particulier celles de l’information et de la communication (TIC). En témoignent leur intense activité sur les réseaux sociaux au cœur de la conflagration syrienne et leur aptitude à attirer nombre de combattants étrangers sur les champs de Bellone.
La capacité d’adaptation des terroristes face aux progrès technologiques
Grâce aux nouvelles avancées dans le domaine du cryptage, les réseaux sociaux sont devenus de véritables plateformes opérationnelles, des instruments de planification virtuelle pour une multitude de tâches, allant du recrutement à la définition de cibles, en passant par la coordination des attaques. Ce sont des réseaux comme Telegram qui permettent aux différentes cellules terroristes de communiquer entre elles, quelle que soit leur localisation, et ce pour des motifs très variés, depuis la logistique jusqu’à l’assistance technique, pour la fabrication de bombes par exemple.
Leur maîtrise des nouvelles technologies ne se limite pas au cyber. En 2017, des journalistes du New York Times ont filmé une attaque de drones de Daech, durant la bataille de Mossoul : contrairement à ce que l’on aurait pu imaginer, les terroristes ont su adapter le maniement des drones à leurs capacités stratégiques, sans reproduire l’utilisation qui en est faite par les Occidentaux. Les drones déployés par les terroristes durant cette bataille étaient de simples drones commerciaux, de faible taille, donc difficilement détectables, que l’on avait équipés de grenades pour attaquer les forces irakiennes cherchant à reprendre la ville.
Ironie de l’histoire, les terroristes ont su tirer profit de l’extension de la société de consommation à l’échelle planétaire, en dépit des valeurs libérales qui lui sont attachées. Les réseaux sociaux, les logiciels de chiffrage et les drones sont autant d’instruments que les terroristes sont parvenus à adapter en fonction de leurs propres intérêts et objectifs.
L’IA, une technologie parmi d’autres pour les terroristes ?
Sans aucun doute, l’IA sera elle aussi utilisée à des fins terroristes. À mesure que les technologies qui lui sont associées seront moins coûteuses et plus accessibles, certains n’hésiteront pas à les détourner de leurs fins premières.
Certes, pour lors, l’intelligence artificielle n’a pas atteint un niveau de complexité tel que son utilisation pourrait se généraliser à court terme sur le champ de bataille, à travers l’utilisation de systèmes d’armes létales autonomes (SALA) par exemple. De plus, les technologies d’IA sont pour le moment réservées aux entreprises occidentales, en particulier les géants technologiques, et aux États. Néanmoins, il est à prévoir que certaines applications pourraient être rapidement utilisées par des groupes terroristes.
D’abord, on peut imaginer que ces groupes sauront utiliser l’IA pour améliorer leurs capacités de renseignement, notamment grâce à des outils d’analyse des réseaux sociaux. Les premières victoires obtenues par Daech sur le champ de bataille se sont pour partie fondées sur la capacité d’anciens membres des services de renseignement baasistes d’établir une cartographie rigoureuse des acteurs-clés des villes qu’ils souhaitaient conquérir, afin d’aider le groupe terroriste ensuite à les arrêter ou à les éliminer. Associer l’IA à ces opérations aura sans doute l’avantage de les rendre moins pénibles et de réduire les risques d’être découvert ; elles permettront également d’accélérer le traitement des données de renseignement et de prendre de meilleures décisions pour accroître les chances du groupe de s’emparer de lieux stratégiques.
L’utilisation de drones autonomes est une piste qui doit être également explorée. L’armée américaine comme l’armée chinoise investissent des moyens financiers substantiels dans des programmes de développement de drones de petite taille, de faible coût (environ 200 dollars l’unité), capables de se déplacer en « essaim » (technique du swarm), de manière autonome, et de saturer le système de défense des porte-avions ou des avions de chasse. Face à un essaim de drones, les moyens de riposte actuels sont largement inefficaces. On imagine aisément l’utilisation que pourraient en faire des groupes terroristes, à mesure que ce type de technologies deviendra plus accessible, en particulier à travers les filières clandestines.
Avec la généralisation de l’accès à l’intelligence artificielle, ce sont également l’impact et la précision des cyberattaques qui risqueront de s’accroître à l’avenir : les infrastructures vitales (centrales nucléaires, systèmes électroniques hospitaliers, usines pétrochimiques…) seront confrontées à de nouvelles menaces (pannes de courant, déni de service…) ; l’information et l’opinion publique seront plus aisément manipulables grâce à la propagande ciblée (utilisation de chatbots haineux, filtrage de l’information…). Tout cela nous amène à bien réfléchir à la manière dont nous concevons ces technologies, selon quelles fins et au sein de quel cadre de régulation. Pour le moment, les rivalités entre États empêchent tout dialogue serein et constructif. Mais gageons que, confronté à une menace globale à laquelle personne ne peut raisonnablement prétendre échapper, le système international saura dépasser provisoirement ses contradictions pour instaurer des règles qui satisfassent le plus grand nombre et encadrent de façon appropriée le développement de ces technologies.