Anthropic poursuit le gouvernement américain en justice : Au cœur de l'affrontement sans précédent sur la sécurité de l'IA qui pourrait remodeler l'industrie technologique
Résumé des nouvelles
San Francisco, Californie — Lundi 9 mars 2026 (HEC)
Anthropic, l'une des principales entreprises mondiales d'intelligence artificielle et créatrice du modèle Claude AI, a intenté lundi deux poursuites judiciaires fédérales contre l'administration Trump, le ministère de la Défense et plus d'une douzaine d'autres agences fédérales. L'action en justice conteste la décision sans précédent du gouvernement de qualifier la société d'IA basée à San Francisco de « risque pour la chaîne d'approvisionnement et la sécurité nationale », une désignation historiquement réservée aux entreprises liées à des adversaires étrangers.
Le point de rupture : un bras de fer de deux semaines
Le conflit entre Anthropic et le Pentagone s'est rapidement intensifié au cours des deux dernières semaines. Au cœur du différend se trouve le refus du PDG Dario Amodei d'autoriser l'utilisation du modèle Claude AI de l'entreprise sans restrictions — spécifiquement pour les systèmes d'armes entièrement autonomes et la surveillance intérieure de masse des citoyens américains. Amodei a rencontré le secrétaire à la Défense Pete Hegseth en février dans l'espoir de négocier un accord, mais les négociations ont échoué publiquement.
Le 27 février, le président Trump a publié sur les réseaux sociaux une directive à toutes les agences fédérales pour « CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic », qualifiant l'entreprise de « SOCIÉTÉ RADICALE DE GAUCHE, ÉVEILLÉE ». Le même jour, le secrétaire Hegseth a annoncé qu'Anthropic serait officiellement désignée comme un risque pour la chaîne d'approvisionnement, déclarant en outre qu'« aucun contractant, fournisseur ou partenaire qui fait affaire avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic ».
La désignation formelle a été officiellement confirmée le 4 mars 2026 (HNE), faisant d'Anthropic la première entreprise américaine de l'histoire à recevoir cette classification.
Les poursuites : deux fronts, un message
Anthropic a intenté deux poursuites distinctes — l'une devant le tribunal de district des États-Unis pour le district nord de Californie, et l'autre devant la cour d'appel des circuits des États-Unis pour Washington, D.C. — chacune ciblant différents aspects des actions du gouvernement. La plainte de 48 pages décrit les mesures de l'administration comme « sans précédent et illégales ».
Les dépôts avancent trois arguments juridiques centraux. Premièrement, que le gouvernement fédéral a exercé des représailles contre Anthropic pour avoir exercé sa liberté d'expression protégée par le Premier amendement sur des questions d'importance publique — spécifiquement, ses positions déclarées sur la sécurité de l'IA. Deuxièmement, que le président Trump a outrepassé son autorité en ordonnant à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic. Et troisièmement, qu'Anthropic s'est vu refuser une procédure régulière adéquate avant d'être soumise à la désignation de risque pour la chaîne d'approvisionnement.
« La Constitution ne permet pas au gouvernement d'exercer son immense pouvoir pour punir une entreprise pour sa parole protégée », indique la poursuite. « Anthropic se tourne vers le pouvoir judiciaire en dernier recours pour faire valoir ses droits et mettre fin à la campagne de représailles illégales de l'Exécutif. »
Les enjeux financiers
Les conséquences économiques de la liste noire se font déjà sentir. Anthropic a averti dans son dépôt que « des contrats avec le gouvernement fédéral sont déjà annulés » et que « des centaines de millions de dollars » de revenus à court terme sont en jeu. L'entreprise devrait générer environ 14 milliards de dollars de revenus en 2026, avec plus de 500 clients payant au moins 1 million de dollars par an pour Claude. Sa valorisation la plus récente s'élève à 380 milliards de dollars.
Au-delà des contrats gouvernementaux, l'entreprise craint que la désignation de risque pour la chaîne d'approvisionnement — même si elle est limitée aux travaux liés au Pentagone — ne jette le doute sur ses relations commerciales plus larges.
Réaction de l'industrie : les rivaux montrent leur soutien
Dans une démonstration inhabituelle de solidarité entre laboratoires d'IA concurrents, des dizaines de scientifiques et de chercheurs d'OpenAI et de Google DeepMind ont déposé lundi une requête d'amicus curiae à titre personnel pour soutenir Anthropic. Le groupe a soutenu que la désignation de risque pour la chaîne d'approvisionnement pourrait nuire à la compétitivité américaine dans le domaine de l'IA et étouffer un débat public important sur le développement responsable de la technologie.
Notamment, OpenAI — sans doute le plus grand rival d'Anthropic — a conclu son propre accord avec le Pentagone quelques heures seulement après que le gouvernement a sanctionné Anthropic. Cependant, OpenAI a également déclaré publiquement qu'elle n'était pas d'accord avec la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement, affirmant : « Un avenir meilleur nécessitera une collaboration réelle et profonde entre le gouvernement et les laboratoires d'IA. »
La position du Pentagone
Les responsables du ministère de la Défense ont maintenu que les entreprises privées ne peuvent pas dicter la manière dont le gouvernement américain déploie la technologie dans les opérations de guerre et tactiques. Le Pentagone a insisté pour avoir une flexibilité totale pour utiliser l'IA pour « tout usage légal », arguant que les restrictions d'Anthropic pourraient mettre en danger des vies américaines sur le champ de bataille. En réponse à la poursuite, un porte-parole du DoD a simplement déclaré que l'agence ne commente pas les affaires en litige.
La porte-parole de la Maison Blanche, Liz Huston, a déclaré dans un communiqué : « Le Président et le Secrétaire à la Guerre veillent à ce que les courageux combattants américains disposent des outils appropriés dont ils ont besoin pour réussir et garantiront qu'ils ne seront jamais pris en otage par les caprices idéologiques de leaders de la Big Tech. »
Claude toujours utilisé — même pendant le conflit iranien
Dans une ironie frappante, CBS News et CNBC ont rapporté que le Pentagone a continué à utiliser Claude pendant les opérations militaires américaines et israéliennes en cours impliquant l'Iran — même après la mise en place de la liste noire formelle. Le Wall Street Journal a également rapporté que Claude avait précédemment été utilisé dans des opérations militaires, notamment dans des évaluations du renseignement et l'identification de cibles en Iran, et dans l'opération qui a conduit à l'arrestation du dirigeant vénézuélien Nicolás Maduro.
Anthropic a reconnu son partenariat avec des contractants de la sécurité nationale, dont Palantir, pour le traitement des données, l'identification des tendances et le soutien à la prise de décision gouvernementale — un travail qui, selon elle, respecte les limites éthiques.
Ce qui se passe ensuite
Anthropic demande une injonction pour bloquer l'ordonnance de risque pour la chaîne d'approvisionnement de Hegseth et la faire déclarer « arbitraire, capricieuse, un abus de pouvoir discrétionnaire et contraire à la loi ». L'entreprise a également déclaré que sa décision de demander un contrôle judiciaire ne ferme pas la porte à un dialogue plus approfondi avec le gouvernement.
« Demander un contrôle judiciaire ne change pas notre engagement de longue date à exploiter l'IA pour protéger notre sécurité nationale », a déclaré un porte-parole d'Anthropic, « mais c'est une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires. Nous continuerons à explorer toutes les voies vers une résolution, y compris le dialogue avec le gouvernement. »
L'issue de cette affaire établira probablement un précédent majeur non seulement pour Anthropic, mais pour l'ensemble de l'industrie de l'IA — déterminant le pouvoir du gouvernement à obliger les entreprises technologiques à supprimer les garde-fous de sécurité, et si les engagements éthiques des entreprises en matière d'IA peuvent coexister avec les exigences de sécurité nationale.