La Maison Blanche débranche : Comment la position d'Anthropic sur la sécurité de l'IA a déclenché une interdiction à l'échelle du gouvernement
Contexte : Une semaine de tensions croissantes
La confrontation entre l'administration Trump et la startup d'IA Anthropic s'intensifiait depuis des semaines. Au cœur du différend se trouvait un contrat du Pentagone de 200 millions de dollars attribué à Anthropic en juillet 2025, en vertu duquel le modèle d'IA de l'entreprise, Claude, est devenu le premier système d'IA de pointe déployé sur les réseaux classifiés de l'armée américaine — grâce à un partenariat avec la société d'analyse de données Palantir.
Le Pentagone a exigé qu'Anthropic accepte d'autoriser l'armée à utiliser Claude à « toutes fins légales » — une formulation qu'Anthropic a interprétée comme une autorisation potentielle de surveillance de masse intérieure et de systèmes d'armes entièrement autonomes. Anthropic a tracé deux lignes rouges fermes : Claude ne serait pas utilisé dans des armes létales autonomes et ne serait pas utilisé pour la surveillance de masse des citoyens américains.
Le point de rupture : L'ultimatum de jeudi
Jeudi 26 février, le secrétaire à la Défense Pete Hegseth a fixé une date limite de 17h00 EST vendredi pour qu'Anthropic abandonne ses garde-fous, sous peine de sanctions. Des responsables du Pentagone ont évoqué la possibilité d'invoquer le Defense Production Act pour forcer la conformité. Le sous-secrétaire à la Recherche et à l'Ingénierie du Pentagone, Emil Michael, a intensifié la rhétorique en qualifiant le PDG d'Anthropic, Dario Amodei, de « menteur » doté d'un « complexe de Dieu ».
Amodei a répondu par une déclaration publique jeudi soir : « Nous ne pouvons pas, en toute bonne conscience, accéder à leur demande. » Il a soutenu que « l'utilisation de ces systèmes pour la surveillance de masse intérieure est incompatible avec les valeurs démocratiques » et que les systèmes d'IA de pointe ne sont « tout simplement pas assez fiables pour alimenter des armes entièrement autonomes ».
L'ordre présidentiel de vendredi
Vers 15h03 EST le vendredi 27 février, le président Trump a publié sur Truth Social un décret gouvernemental généralisé interdisant la technologie d'Anthropic.
Trump a écrit : « Les cinglés de gauche chez Anthropic ont commis une ERREUR DÉSASTREUSE en essayant de faire du CHANTAGE au Département de la Guerre, et de les forcer à obéir à leurs Conditions d'utilisation au lieu de notre Constitution. Leur égoïsme met en DANGER DES VIES AMÉRICAINES, nos troupes, et notre sécurité nationale. »
Trump a ordonné à chaque agence fédérale de « CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic », tout en accordant aux agences comme le Département de la Défense une période de transition de six mois en raison de leur profonde intégration des produits d'Anthropic. Il a également menacé Anthropic de « conséquences civiles et pénales majeures » si l'entreprise ne coopérait pas pendant la transition.
Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement de la sécurité nationale
Peu après la date limite présidentielle à 17h00 EST, le secrétaire à la Défense Hegseth a annoncé sur X (anciennement Twitter) que le Pentagone désignait Anthropic comme un « risque pour la chaîne d'approvisionnement de la sécurité nationale » — une classification généralement réservée aux entreprises liées à des adversaires étrangers tels que la Chine et la Russie.
Hegseth a déclaré : « Aucun contractant, fournisseur ou partenaire qui fait affaire avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic. » Il a précisé que la période de six mois permettrait « une transition transparente vers un service meilleur et plus patriotique ».
La General Services Administration a également annoncé qu'elle retirerait Anthropic de USAi.gov, la plateforme centralisée de test d'IA du gouvernement fédéral.
Réaction de l'industrie : La Silicon Valley se rallie à Anthropic
Le différend a eu des répercussions dans toute l'industrie de l'IA. Le PDG d'OpenAI, Sam Altman, a publiquement pris le parti d'Anthropic, déclarant dans un mémo interne et une interview à CNBC que son entreprise partageait les mêmes « lignes rouges » — s'opposant à l'utilisation de l'IA dans des armes létales autonomes et la surveillance de masse. OpenAI détient elle-même un contrat distinct de 200 millions de dollars avec le Pentagone, bien que uniquement pour des cas d'utilisation non classifiés.
Plus de 100 employés de Google ont signé une lettre ouverte au scientifique en chef de l'entreprise, Jeff Dean, exigeant des garanties similaires pour les modèles d'IA Gemini. Des employés de Microsoft et d'Amazon ont également demandé à la direction de résister à l'utilisation militaire sans restriction de leurs produits d'IA.
Elon Musk, cependant, s'est rangé du côté de l'administration Trump, déclarant sur X qu'« Anthropic déteste la civilisation occidentale ». Notamment, la société d'IA de Musk, xAI — un concurrent direct d'Anthropic — venait de devenir la deuxième entreprise d'IA autorisée à être utilisée sur les réseaux militaires classifiés, se positionnant ainsi comme un bénéficiaire probable de l'éviction d'Anthropic.
Conséquences politiques
Le sénateur Mark Warner (D-VA), vice-président du Comité sénatorial du renseignement, a condamné l'action du président, avertissant qu'elle « soulève de sérieuses préoccupations quant à savoir si les décisions de sécurité nationale sont guidées par une analyse approfondie ou par des considérations politiques ».
Les sénateurs Ed Markey (D-MA) et Chris Van Hollen (D-MD) ont envoyé une lettre à Hegseth, qualifiant les menaces du Pentagone de « message glaçant aux entreprises américaines ».
Ce qui va suivre
L'interdiction place Anthropic — actuellement valorisée parmi les startups d'IA les plus précieuses au monde avec environ 14 milliards de dollars de revenus annuels — dans une position sans précédent. Bien que le contrat du Pentagone de 200 millions de dollars représente une part relativement faible de ses revenus, la désignation de risque pour la chaîne d'approvisionnement pourrait perturber des partenariats commerciaux plus larges et compliquer une introduction en bourse largement anticipée (bien qu'Anthropic ait déclaré qu'aucune décision finale d'introduction en bourse n'avait été prise).
Cet épisode est largement considéré comme un avertissement adressé à d'autres entreprises d'IA — y compris Google et OpenAI — concernant les attentes de l'administration en matière d'accès gouvernemental sans restriction aux systèmes d'IA. Il reste à voir si la position d'Anthropic renforcera ou affaiblira finalement sa position sur le marché.