Le Pentagone choisit OpenAI plutôt qu'Anthropic alors que le débat sur les pouvoirs de guerre de l'IA atteint un point de rupture

March 02, 2026
OpenAI
6 min

OpenAI conclut un accord classifié sur l'IA avec le Pentagone quelques heures après que Trump a mis Anthropic sur liste noire

Contexte : Une semaine de turbulence politique dans l'IA

La semaine du 23 au 28 février 2026 s'est avérée être l'une des plus dramatiques de l'histoire de l'industrie de l'intelligence artificielle. En son centre : un affrontement à enjeux élevés entre le ministère américain de la Défense (DoD) — désormais officiellement rebaptisé par l'administration Trump « Département de la Guerre » — et les principales entreprises d'IA sur les conditions dans lesquelles les modèles d'IA avancés pourraient être déployés dans des environnements militaires classifiés.

Le Pentagone faisait pression sur les entreprises d'IA pour qu'elles autorisent l'utilisation de leurs modèles à « toutes fins légales », un mandat large qui a déclenché des alarmes dans plusieurs laboratoires de pointe. Anthropic, l'entreprise de sécurité de l'IA derrière la famille de modèles Claude, a tracé une ligne rouge ferme : sa technologie ne serait pas utilisée pour la surveillance domestique de masse ou les systèmes d'armes entièrement autonomes.


Anthropic mis sur liste noire : une désignation historique

Le vendredi 28 février 2026 (heure de l'Est), le secrétaire à la Défense Pete Hegseth a pris une mesure extraordinaire — désignant officiellement Anthropic comme un « risque pour la chaîne d'approvisionnement de la sécurité nationale ». Cette désignation, généralement réservée aux entreprises ayant des liens avec des adversaires étrangers, a eu des conséquences pratiques sévères : avec effet immédiat, aucun contractant, fournisseur ou partenaire faisant affaire avec l'armée américaine ne serait autorisé à mener une activité commerciale avec Anthropic.

Le président Donald Trump s'est également exprimé sur les réseaux sociaux, qualifiant la direction de l'entreprise de « cinglés de gauche » et ordonnant à toutes les agences fédérales de cesser d'utiliser les produits d'Anthropic après une période de transition de six mois.

Anthropic a répondu qu'elle était « profondément attristée » par la décision et a annoncé son intention de contester la désignation en justice. L'entreprise a déclaré qu'elle n'avait pas encore reçu de communication directe du Département de la Guerre ou de la Maison Blanche concernant le statut des négociations.


OpenAI agit rapidement : un accord est conclu

Quelques heures après la mise sur liste noire d'Anthropic, le PDG d'OpenAI, Sam Altman, a annoncé tard vendredi soir (heure de l'Est) que son entreprise avait conclu un accord avec le Département de la Guerre pour déployer ses modèles d'IA au sein du réseau classifié du Pentagone.

« Ce soir, nous avons conclu un accord avec le Département de la Guerre pour déployer nos modèles dans leur réseau classifié », a écrit Altman sur X. « Dans toutes nos interactions, le DoW a fait preuve d'un profond respect pour la sécurité et d'un désir de partenariat pour obtenir le meilleur résultat possible. »

Altman a reconnu en interne lors d'une réunion générale que l'accord était « définitivement précipité » et que « l'image n'était pas bonne » — mais a défendu la décision comme nécessaire pour désamorcer une confrontation dangereuse entre le gouvernement et l'industrie de l'IA.


Trois lignes rouges : ce qu'OpenAI autorise et n'autorise pas

OpenAI a publié un article de blog détaillé décrivant les termes et les protections intégrés à son accord. L'entreprise a défini trois lignes rouges non négociables :

  1. Pas de surveillance domestique de masse — La technologie d'OpenAI ne peut pas être utilisée pour surveiller les personnes américaines à grande échelle.
  2. Pas d'armes autonomes — Les modèles ne peuvent pas être utilisés pour diriger des systèmes d'armes sans supervision humaine.
  3. Pas de décisions automatisées à enjeux élevés — Cela inclut les systèmes de type crédit social ou les mécanismes de jugement automatisés équivalents.

OpenAI affirme que son accord va plus loin que tout contrat de déploiement d'IA classifié antérieur, y compris le contrat original d'Anthropic, en utilisant une approche de mise en œuvre à plusieurs niveaux : déploiement uniquement dans le cloud (pas de déploiement en périphérie), une « pile de sécurité » interne que le gouvernement ne peut pas outrepasser, du personnel OpenAI habilité intégré aux opérations, et un langage contractuel solide.

Altman a déclaré que si un modèle refuse d'exécuter une tâche, le gouvernement a accepté de ne pas forcer OpenAI à outrepasser ce refus.


Réaction et examen de l'industrie

L'accord a immédiatement suscité des éloges et des critiques. Plus de 60 employés d'OpenAI et 300 employés de Google avaient signé une lettre ouverte plus tôt dans la semaine exhortant leurs employeurs à soutenir la position d'Anthropic.

Les critiques ont soulevé des questions sur les protections réelles du contrat. Mike Masnick de Techdirt a soutenu que l'accord « autorise absolument la surveillance domestique » en raison de sa référence au décret exécutif 12333, qui régit la collecte de renseignements en dehors des frontières américaines — mais qui est largement connu pour capturer des données sur les citoyens américains.

La responsable des partenariats de sécurité nationale d'OpenAI, Katrina Mulligan, a répliqué : « L'architecture de déploiement est plus importante que le langage contractuel », a-t-elle écrit sur LinkedIn, arguant que le déploiement d'API uniquement dans le cloud garantit que les modèles ne peuvent pas être réutilisés à des fins de surveillance au niveau de l'infrastructure.


Signal du marché : Claude dépasse ChatGPT

Dans une évolution frappante du marché, Claude d'Anthropic a dépassé ChatGPT d'OpenAI dans les classements de l'App Store d'Apple le samedi 1er mars 2026 — un signe possible de sympathie publique envers la position plus ferme d'Anthropic sur les garde-fous de la sécurité de l'IA.


Que se passe-t-il ensuite ?

OpenAI a publiquement demandé au Département de la Guerre d'étendre les mêmes conditions contractuelles à toutes les entreprises d'IA, y compris Anthropic, dans le but de désamorcer le conflit plus large. Altman a exprimé l'espoir que l'accord servirait de modèle pour une collaboration responsable entre le gouvernement et l'IA, plutôt qu'un clivage qui divise l'industrie.

Anthropic, pour sa part, prépare une action en justice et continue de faire pression pour sa réintégration dans les contrats gouvernementaux. La situation reste fluide au lundi 2 mars 2026.