Pentágono Escolhe OpenAI em Detrimento da Anthropic Enquanto Debate Sobre Poderes de Guerra de IA Atinge Ponto Crítico
OpenAI Firma Acordo Classificado de IA com o Pentágono Horas Após Trump Banir a Anthropic
Contexto: Uma Semana de Turbulência Política em IA
A semana de 23 a 28 de fevereiro de 2026 provou ser uma das mais dramáticas na história da indústria de inteligência artificial. No centro: um impasse de alto risco entre o Departamento de Defesa dos EUA (DoD) — agora oficialmente renomeado pela administração Trump como "Departamento de Guerra" — e as principais empresas de IA sobre os termos sob os quais modelos avançados de IA poderiam ser implantados em ambientes militares classificados.
O Pentágono vinha pressionando as empresas de IA para permitir que seus modelos fossem usados para "todos os fins legais", um mandato amplo que disparou alarmes em vários laboratórios de ponta. A Anthropic, a empresa de segurança de IA por trás da família de modelos Claude, traçou uma linha vermelha firme: sua tecnologia não seria usada para vigilância doméstica em massa ou sistemas de armas totalmente autônomos.
Anthropic Banida: Uma Designação Histórica
Na sexta-feira, 28 de fevereiro de 2026 (Horário do Leste dos EUA), o Secretário de Defesa Pete Hegseth tomou uma medida extraordinária — designando formalmente a Anthropic como um "Risco na Cadeia de Suprimentos para a Segurança Nacional." Esta designação, tipicamente reservada para empresas com laços com adversários estrangeiros, acarretou severas consequências práticas: com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que fizesse negócios com os militares dos EUA teria permissão para realizar qualquer atividade comercial com a Anthropic.
O Presidente Donald Trump também usou as redes sociais, chamando a liderança da empresa de "malucos de esquerda" e instruindo todas as agências federais a cessarem o uso dos produtos da Anthropic após um período de transição de seis meses.
A Anthropic respondeu que estava "profundamente triste" com a decisão e anunciou que pretende contestar a designação judicialmente. A empresa declarou que ainda não havia recebido comunicação direta do Departamento de Guerra ou da Casa Branca sobre o status das negociações.
OpenAI Age Rapidamente: Um Acordo é Feito
Horas após o banimento da Anthropic, o CEO da OpenAI, Sam Altman, anunciou na noite de sexta-feira (Horário do Leste dos EUA) que sua empresa havia chegado a um acordo com o Departamento de Guerra para implantar seus modelos de IA na rede classificada do Pentágono.
"Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada", escreveu Altman no X. "Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e um desejo de parceria para alcançar o melhor resultado possível."
Altman reconheceu internamente em uma reunião geral que o acordo foi "definitivamente apressado" e que "a aparência não é boa" — mas defendeu a decisão como necessária para desescalar um confronto perigoso entre o governo e a indústria de IA.
Três Linhas Vermelhas: O Que a OpenAI Permite e Não Permite
A OpenAI publicou um post detalhado em seu blog delineando os termos e proteções incorporados em seu acordo. A empresa apresentou três linhas vermelhas inegociáveis:
- Sem vigilância doméstica em massa — A tecnologia da OpenAI não pode ser usada para vigiar pessoas nos EUA em escala.
- Sem armas autônomas — Os modelos não podem ser usados para direcionar sistemas de armas sem supervisão humana.
- Sem decisões automatizadas de alto risco — Isso inclui sistemas de estilo de crédito social ou mecanismos de julgamento automatizados equivalentes.
A OpenAI afirma que seu acordo vai além de qualquer contrato anterior de implantação de IA classificada, incluindo o contrato original da Anthropic, usando uma abordagem de aplicação em várias camadas: implantação apenas na nuvem (sem implantação em dispositivos), uma "pilha de segurança" interna que o governo não pode substituir, pessoal da OpenAI com autorização incorporado às operações e forte linguagem contratual.
Altman declarou que, se um modelo se recusar a realizar uma tarefa, o governo concordou em não forçar a OpenAI a anular essa recusa.
Reação e Análise da Indústria
O acordo atraiu imediatamente elogios e críticas. Mais de 60 funcionários da OpenAI e 300 funcionários do Google haviam assinado uma carta aberta no início da semana, instando seus empregadores a apoiar a posição da Anthropic.
Críticos levantaram questões sobre as proteções reais do contrato. Mike Masnick, do Techdirt, argumentou que o acordo "absolutamente permite a vigilância doméstica" com base em sua referência à Ordem Executiva 12333, que rege a coleta de inteligência fora das fronteiras dos EUA — mas é amplamente conhecida por capturar dados de cidadãos americanos.
A chefe de parcerias de segurança nacional da OpenAI, Katrina Mulligan, rebateu: "A arquitetura de implantação importa mais do que a linguagem do contrato", escreveu ela no LinkedIn, argumentando que a implantação de API apenas na nuvem garante que os modelos não possam ser reutilizados para vigilância no nível da infraestrutura.
Sinal de Mercado: Claude Ultrapassa ChatGPT
Em um desenvolvimento de mercado marcante, o Claude da Anthropic ultrapassou o ChatGPT da OpenAI nos rankings da App Store da Apple no sábado, 1º de março de 2026 — um possível sinal de simpatia pública pela posição mais firme da Anthropic em relação às salvaguardas de segurança de IA.
O Que Acontece Agora?
A OpenAI pediu publicamente ao Departamento de Guerra que estenda os mesmos termos contratuais a todas as empresas de IA, incluindo a Anthropic, em um esforço para desescalar o conflito mais amplo. Altman expressou esperança de que o acordo sirva como um modelo para a colaboração responsável entre governo e IA, em vez de uma cunha que divida a indústria.
A Anthropic, por sua vez, está preparando ações legais e continua a pressionar pela reintegração em contratos governamentais. A situação permanece fluida em 2 de março de 2026.