Pentágono Escolhe OpenAI em Detrimento da Anthropic Enquanto Debate Sobre Poderes de Guerra de IA Atinge Ponto Crítico

March 02, 2026
OpenAI
5 min

OpenAI Firma Acordo Classificado de IA com o Pentágono Horas Após Trump Banir a Anthropic

Contexto: Uma Semana de Turbulência Política em IA

A semana de 23 a 28 de fevereiro de 2026 provou ser uma das mais dramáticas na história da indústria de inteligência artificial. No centro: um impasse de alto risco entre o Departamento de Defesa dos EUA (DoD) — agora oficialmente renomeado pela administração Trump como "Departamento de Guerra" — e as principais empresas de IA sobre os termos sob os quais modelos avançados de IA poderiam ser implantados em ambientes militares classificados.

O Pentágono vinha pressionando as empresas de IA para permitir que seus modelos fossem usados para "todos os fins legais", um mandato amplo que disparou alarmes em vários laboratórios de ponta. A Anthropic, a empresa de segurança de IA por trás da família de modelos Claude, traçou uma linha vermelha firme: sua tecnologia não seria usada para vigilância doméstica em massa ou sistemas de armas totalmente autônomos.


Anthropic Banida: Uma Designação Histórica

Na sexta-feira, 28 de fevereiro de 2026 (Horário do Leste dos EUA), o Secretário de Defesa Pete Hegseth tomou uma medida extraordinária — designando formalmente a Anthropic como um "Risco na Cadeia de Suprimentos para a Segurança Nacional." Esta designação, tipicamente reservada para empresas com laços com adversários estrangeiros, acarretou severas consequências práticas: com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que fizesse negócios com os militares dos EUA teria permissão para realizar qualquer atividade comercial com a Anthropic.

O Presidente Donald Trump também usou as redes sociais, chamando a liderança da empresa de "malucos de esquerda" e instruindo todas as agências federais a cessarem o uso dos produtos da Anthropic após um período de transição de seis meses.

A Anthropic respondeu que estava "profundamente triste" com a decisão e anunciou que pretende contestar a designação judicialmente. A empresa declarou que ainda não havia recebido comunicação direta do Departamento de Guerra ou da Casa Branca sobre o status das negociações.


OpenAI Age Rapidamente: Um Acordo é Feito

Horas após o banimento da Anthropic, o CEO da OpenAI, Sam Altman, anunciou na noite de sexta-feira (Horário do Leste dos EUA) que sua empresa havia chegado a um acordo com o Departamento de Guerra para implantar seus modelos de IA na rede classificada do Pentágono.

"Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada", escreveu Altman no X. "Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e um desejo de parceria para alcançar o melhor resultado possível."

Altman reconheceu internamente em uma reunião geral que o acordo foi "definitivamente apressado" e que "a aparência não é boa" — mas defendeu a decisão como necessária para desescalar um confronto perigoso entre o governo e a indústria de IA.


Três Linhas Vermelhas: O Que a OpenAI Permite e Não Permite

A OpenAI publicou um post detalhado em seu blog delineando os termos e proteções incorporados em seu acordo. A empresa apresentou três linhas vermelhas inegociáveis:

  1. Sem vigilância doméstica em massa — A tecnologia da OpenAI não pode ser usada para vigiar pessoas nos EUA em escala.
  2. Sem armas autônomas — Os modelos não podem ser usados para direcionar sistemas de armas sem supervisão humana.
  3. Sem decisões automatizadas de alto risco — Isso inclui sistemas de estilo de crédito social ou mecanismos de julgamento automatizados equivalentes.

A OpenAI afirma que seu acordo vai além de qualquer contrato anterior de implantação de IA classificada, incluindo o contrato original da Anthropic, usando uma abordagem de aplicação em várias camadas: implantação apenas na nuvem (sem implantação em dispositivos), uma "pilha de segurança" interna que o governo não pode substituir, pessoal da OpenAI com autorização incorporado às operações e forte linguagem contratual.

Altman declarou que, se um modelo se recusar a realizar uma tarefa, o governo concordou em não forçar a OpenAI a anular essa recusa.


Reação e Análise da Indústria

O acordo atraiu imediatamente elogios e críticas. Mais de 60 funcionários da OpenAI e 300 funcionários do Google haviam assinado uma carta aberta no início da semana, instando seus empregadores a apoiar a posição da Anthropic.

Críticos levantaram questões sobre as proteções reais do contrato. Mike Masnick, do Techdirt, argumentou que o acordo "absolutamente permite a vigilância doméstica" com base em sua referência à Ordem Executiva 12333, que rege a coleta de inteligência fora das fronteiras dos EUA — mas é amplamente conhecida por capturar dados de cidadãos americanos.

A chefe de parcerias de segurança nacional da OpenAI, Katrina Mulligan, rebateu: "A arquitetura de implantação importa mais do que a linguagem do contrato", escreveu ela no LinkedIn, argumentando que a implantação de API apenas na nuvem garante que os modelos não possam ser reutilizados para vigilância no nível da infraestrutura.


Sinal de Mercado: Claude Ultrapassa ChatGPT

Em um desenvolvimento de mercado marcante, o Claude da Anthropic ultrapassou o ChatGPT da OpenAI nos rankings da App Store da Apple no sábado, 1º de março de 2026 — um possível sinal de simpatia pública pela posição mais firme da Anthropic em relação às salvaguardas de segurança de IA.


O Que Acontece Agora?

A OpenAI pediu publicamente ao Departamento de Guerra que estenda os mesmos termos contratuais a todas as empresas de IA, incluindo a Anthropic, em um esforço para desescalar o conflito mais amplo. Altman expressou esperança de que o acordo sirva como um modelo para a colaboração responsável entre governo e IA, em vez de uma cunha que divida a indústria.

A Anthropic, por sua vez, está preparando ações legais e continua a pressionar pela reintegração em contratos governamentais. A situação permanece fluida em 2 de março de 2026.