![]()
La guerre menée par les États-Unis et Israël contre l'Iran a été qualifiée de « première guerre de l'IA ». Mais les récents déploiements d'intelligence artificielle s'inscrivent en réalité dans une longue histoire de développements technologiques qui privilégient la rapidité dans la chaîne de destruction militaire.
« Soixante secondes, c'est tout ce qu'il a fallu », a affirmé un ancien agent du Mossad israélien à propos des frappes qui ont tué le guide suprême iranien, l'ayatollah Ali Khamenei, le 28 février 2026, premier jour de la guerre américano-israélienne contre l'Iran.
Lire l'article
L' utilisation des systèmes d'IA a considérablement accru la vitesse et l'ampleur des conflits armés. Cependant, cette nécessité de rapidité engendre de graves risques pour les civils comme pour les militaires.
Les opérations militaires modernes produisent et s'appuient sur une quantité considérable de renseignements. Cela inclut les interceptions de conversations téléphoniques et de SMS, la surveillance massive d'Internet (connue sous le nom de « renseignement électromagnétique »), ainsi que les images satellites et les flux vidéo de drones de surveillance. On peut considérer tous ces renseignements comme des données - et le problème, c'est qu'il y en a beaucoup trop.
Dès 2010, l' US Air Force s'inquiétait d'être « submergée par les capteurs et noyée sous les données ». Trop d'heures d'enregistrements et trop d'analystes chargés d'examiner manuellement ces renseignements.
Les systèmes d'IA peuvent accélérer considérablement l'analyse du renseignement militaire. Brad Cooper, chef du Commandement central américain (CentCom), a récemment confirmé l'utilisation d'outils d'IA dans la guerre contre l'Iran, déclarant :
« Ces systèmes nous aident à analyser d'énormes quantités de données en quelques secondes, permettant ainsi à nos dirigeants de faire le tri parmi les informations superflues et de prendre des décisions plus judicieuses plus rapidement que l'ennemi ne peut réagir... Les outils d'IA avancés peuvent transformer des processus qui prenaient des heures, voire des jours, en quelques secondes. »
En 2024, une enquête de l'université de Georgetown a révélé que le 18e corps aéroporté de l'armée américaine avait utilisé l'IA pour faciliter le traitement du renseignement, réduisant ainsi une équipe de 2 000 personnes à seulement 20.
L'attrait de la vitesse
Durant la Seconde Guerre mondiale, le cycle de ciblage aérien - de la collecte d'images à la constitution de dossiers de ciblage complets, incluant les rapports de renseignement - pouvait prendre des semaines, voire des mois. Mais au cours des décennies suivantes, l'armée américaine s'est attelée à ce qu'elle appelait la « compression de la chaîne de destruction », c'est-à-dire la réduction du délai entre l'identification d'une cible et l'engagement de la force contre elle.
Lire l'article
Lors de la première guerre du Golfe en 1991, le président irakien Saddam Hussein a utilisé des lanceurs de missiles mobiles qui patrouillaient dans le désert en tirant des missiles Scud. Avant même que les radars américains ne repèrent leur position, le lanceur pouvait se trouver à plusieurs kilomètres. Cette tactique de « tir et repli » a nécessité le développement de nouvelles technologies pour suivre ces cibles mobiles.
Les lanceurs mobiles de missiles Scud ont représenté un nouveau défi pour l'armée américaine lors de la première guerre du Golfe.Une avancée majeure est survenue peu après les attentats du 11 septembre, sous la forme d'un drone Predator armé .
En novembre 2002, la CIA a ciblé et éliminé le chef d'Al-Qaïda au Yémen, Qaed Salim Sinan al-Harithi. Cet événement a marqué le début d'une nouvelle ère de la guerre, caractérisée par le vol à distance de drones pilotés depuis des bases militaires américaines au-dessus du Yémen, de la Somalie, du Pakistan, de l'Irak, de l'Afghanistan et d'autres régions du monde.
Les puissantes caméras des drones pouvaient capturer des vidéos haute résolution et les transmettre aux États-Unis par satellite en quelques secondes, permettant ainsi aux opérateurs de suivre des cibles mobiles. Le même drone qui suivait la cible pouvait ensuite tirer des missiles pour la neutraliser ou la détruire.
Plus la vitesse augmente, plus le risque augmente.
Il y a vingt ans, il était facile de rejeter comme une exagération l'idée que l'ère à venir de la cyberguerre pourrait entraîner des « bombardements à la vitesse de la pensée », une expression forgée par l'historien américain Nick Cullather en 2003. Pourtant, avec l'avènement de la guerre par l'IA, l'impensable est devenu presque obsolète.
L'un des principaux arguments en faveur du recours à l'IA est la conviction que la pensée humaine ne peut rivaliser avec la vitesse de traitement permise par les systèmes d'IA. La stratégie du département américain de la Défense en matière d'intelligence artificielle stipule : « L'IA militaire sera une course pour l'avenir prévisible, et par conséquent, la rapidité est essentielle... Nous devons accepter que les risques liés à une progression trop lente soient supérieurs à ceux d'une adéquation imparfaite ».
Lire l'article
Si les usages précis de l'IA par les États-Unis et d'autres armées restent entourés de secret, des informations ont été rendues publiques qui mettent en lumière les risques liés à son utilisation sur les populations civiles.
À Gaza, selon des sources du renseignement israélien, les systèmes d'intelligence artificielle Lavender et Gospel ont été programmés pour accepter jusqu'à 100 victimes civiles (voire davantage) lors d'une frappe contre un seul combattant présumé du Hamas. On estime à plus de 75 000 le nombre de personnes tuées dans cette zone depuis le 7 octobre 2023.
En février 2024, une frappe aérienne américaine a tué Abdul-Rahman al-Rawi, un étudiant de 20 ans. À l'époque, un haut responsable américain avait admis que les frappes avaient utilisé un système de ciblage par intelligence artificielle. Or, de manière assez confuse, l'armée américaine affirme aujourd'hui n'avoir « aucun moyen de savoir » si elle a eu recours à l'IA lors de frappes aériennes spécifiques.
Le risque est que l'IA puisse abaisser le seuil ou le coût de l'entrée en guerre, à mesure que les humains jouent un rôle de plus en plus passif dans l'examen et la validation automatique du travail de l'IA .
Lire l'article
L'intégration de l'IA dans les chaînes de destruction militaire s'inscrit dans un contexte d'évolutions alarmantes. Après des années d'inaction, l'armée américaine a consacré plus d'une décennie au développement d'une infrastructure visant à éviter les pertes civiles en temps de guerre, mais celle-ci a été presque entièrement démantelée sous l'administration Trump.
Les juristes qui conseillent l'armée sur les opérations de ciblage, notamment sur le respect du droit international et des règles d'engagement, ont été mis à l'écart et licenciés.
Par ailleurs, depuis le début de la guerre en Iran, plus de 1 200 civils ont été tués, selon le ministère iranien de la Santé. Le 28 février, l'armée américaine a bombardé une école primaire dans le sud de l'Iran, faisant au moins 175 victimes, principalement des enfants.
Le secrétaire américain à la Défense, Pete Hegseth, a clairement indiqué que l'objectif de l'armée en Iran est d'obtenir « une létalité maximale, et non une légalité tiède. Un effet violent, et non le politiquement correct ».
Avec une telle attitude, et en privilégiant la rapidité à la réflexion, les pertes civiles deviennent inévitables et la responsabilité toujours plus difficile à établir.
.png)
1 month ago
English (United States) ·
French (France) ·