Sur liste noire mais toujours opérationnel : Comment Claude AI a alimenté la frappe américaine en Iran tout en étant banni par le Pentagone

March 07, 2026
Claude
5 min

Résumé des nouvelles

Dans l'une des démonstrations les plus importantes de l'intelligence artificielle dans la guerre moderne, le modèle d'IA Claude d'Anthropic a été déployé par le Commandement central américain (CENTCOM) lors de la campagne militaire conjointe américano-israélienne contre l'Iran — baptisée "Roaring Lion" et "Opération Epic Fury" — alors même que la Maison Blanche avait formellement interdit son utilisation quelques heures auparavant.

Ce que Claude a fait sur le champ de bataille

Selon des reportages du Wall Street Journal, d'Axios et de CBS News, l'armée américaine a utilisé Claude pour trois fonctions principales : l'évaluation du renseignement, l'identification de cibles et la simulation de scénarios de combat. Au cours des premières 24 heures de frappes, débutant le samedi 28 février 2026 (ET), les États-Unis ont frappé environ 1 000 cibles iraniennes — un rythme que les analystes militaires jugent impossible à réaliser opérationnellement sans planification assistée par l'IA.

Claude, intégré à une plateforme de ciblage classifiée développée par Palantir et hébergée sur le Top Secret Cloud d'Amazon Web Services, a traité des volumes massifs de données entrantes — images de drones, interceptions radio, imagerie satellite et renseignement humain — pour localiser, prioriser et recouper des cibles de grande valeur, notamment des actifs militaires iraniens, des complexes de commandement et des infrastructures stratégiques. Selon les rapports, le système a même effectué des examens juridiques préliminaires pour évaluer la conformité avec le droit international avant de recommander des frappes.

Parmi les résultats rapportés de l'opération figure l'élimination du Guide suprême de l'Iran, l'ayatollah Ali Khamenei, dont la localisation a été confirmée par des renseignements de la CIA décrits comme offrant des données de position "haute fidélité" qu'Israël a utilisées, parallèlement à ses propres préparatifs, pour exécuter une frappe visant un rassemblement rare de hauts responsables iraniens dans un complexe gouvernemental au centre de Téhéran.

Le paradoxe : interdit mais toujours opérationnel

Le déploiement s'est déroulé dans des circonstances politiques extraordinaires. Le vendredi 27 février 2026 (ET), le secrétaire américain à la Défense, Pete Hegseth, a ordonné qu'Anthropic soit désigné comme un "risque pour la chaîne d'approvisionnement de la sécurité nationale", interdisant de fait à tous les sous-traitants, fournisseurs et partenaires du Pentagone de mener des activités commerciales avec l'entreprise. Le différend portait sur le refus d'Anthropic de supprimer les contraintes éthiques de Claude — en particulier, les garde-fous qui empêchent le modèle de soutenir des systèmes d'armes létales entièrement autonomes ou de permettre une surveillance domestique de masse des citoyens américains.

Malgré l'interdiction, l'intégration de Claude dans les systèmes militaires classifiés était si profonde que le Pentagone n'a pas pu le désengager à temps. Plusieurs sources de défense ont déclaré à CBS News et Defense One que le remplacement des capacités de Claude prendrait au moins trois mois.

"Le Pentagone a exigé des droits plus larges pour utiliser Claude 'à toutes fins légales'", ont expliqué des sources familières avec le litige contractuel, mais Anthropic a refusé. Il en est résulté un paradoxe remarquable : un outil d'IA officiellement mis sur liste noire par le gouvernement américain alimentait simultanément l'une des opérations militaires les plus complexes du 21e siècle.

Le rôle de Claude : aide à la décision, pas autonomie

Les rapports de plusieurs médias ont veillé à préciser que Claude ne contrôlait pas de manière autonome les systèmes d'armes ni ne prenait de décisions létales indépendamment. Il fonctionnait plutôt comme un outil d'aide à la décision à haute vitesse — synthétisant le renseignement, modélisant les résultats, simulant les séquences de frappes et présentant des recommandations aux opérateurs humains qui conservaient l'autorité finale. Le professeur Craig Jones de l'Université de Newcastle a noté que les recommandations générées par l'IA arrivent désormais "plus vite que l'esprit humain ne peut" traiter les options alternatives, comprimant la "chaîne d'élimination" traditionnelle de jours ou de semaines à quelques secondes.

Il a également été rapporté que Claude avait joué un rôle dans l'opération de janvier 2026 qui a conduit à la capture du président vénézuélien Nicolás Maduro, signalant que son intégration militaire précédait la campagne iranienne.

La position d'Anthropic

Dans un communiqué publié le samedi 1er mars 2026 (ET), Anthropic a déclaré qu'il avait clairement indiqué qu'il "soutient toutes les utilisations légales de l'IA pour la sécurité nationale". L'entreprise n'a ni confirmé ni démenti publiquement l'implication de sa technologie dans les frappes iraniennes. Le PDG d'Anthropic, Dario Amodei, s'était exprimé lors de l'AI Impact Summit à New Delhi le 19 février 2026 (IST) au plus tôt, où les discussions sur la gouvernance et la sécurité de l'IA étaient prédominantes.

Les analystes débattent maintenant de la question de savoir si le gouvernement américain inversera sa désignation de "risque pour la chaîne d'approvisionnement" — étant donné que l'armée ne peut actuellement pas remplacer Claude — ou s'il redoublera d'efforts, ouvrant un contrat à un rival moins scrupuleux. Comme l'a formulé un commentateur, écraser l'un des laboratoires d'IA les plus soucieux de la sécurité du pays pour avoir refusé de supprimer les limites éthiques serait, en termes de théorie des jeux, "une pure stupidité".

L'aube de la guerre pilotée par l'IA

Les frappes iraniennes sont devenues la première démonstration publique à grande échelle de la guerre pilotée par l'IA. Le rôle de Claude — aussi contesté, aussi paradoxal soit-il — marque un point d'inflexion. L'IA n'est plus une capacité future en cours d'évaluation pour le champ de bataille. Elle est déjà là, façonnant le rythme, la précision et la politique du conflit moderne.