A Anthropic Leva o Governo dos EUA ao Tribunal: Por Dentro do Confronto Sem Precedentes sobre Segurança da IA Que Poderia Remodelar a Indústria de Tecnologia
Resumo de Notícias
São Francisco, CA — Segunda-feira, 9 de março de 2026 (EDT)
A Anthropic, uma das principais empresas de inteligência artificial do mundo e criadora do modelo Claude AI, entrou com duas ações judiciais federais na segunda-feira contra a administração Trump, o Departamento de Defesa e mais de uma dúzia de outras agências federais. A ação legal contesta a decisão sem precedentes do governo de rotular a empresa de IA sediada em São Francisco como um "risco na cadeia de suprimentos para a segurança nacional" — uma designação historicamente reservada para empresas ligadas a adversários estrangeiros.
O Ponto de Ruptura: Um Impasse de Duas Semanas
O conflito entre a Anthropic e o Pentágono escalou rapidamente nas últimas duas semanas. No centro da disputa está a recusa do CEO Dario Amodei em permitir que o modelo Claude AI da empresa seja usado sem restrições — especificamente para sistemas de armas totalmente autônomos e vigilância doméstica em massa de cidadãos americanos. Amodei se reuniu com o Secretário de Defesa Pete Hegseth em fevereiro na esperança de negociar um acordo, mas as negociações foram publicamente desfeitas.
Em 27 de fevereiro, o Presidente Trump postou nas redes sociais, instruindo todas as agências federais a "CESSAR IMEDIATAMENTE todo o uso da tecnologia da Anthropic", rotulando a empresa como "UMA EMPRESA RADICAL DE ESQUERDA E WOKE". No mesmo dia, o Secretário Hegseth anunciou que a Anthropic seria oficialmente designada como um risco na cadeia de suprimentos, declarando ainda que "nenhum empreiteiro, fornecedor ou parceiro que faz negócios com as Forças Armadas dos Estados Unidos pode realizar qualquer atividade comercial com a Anthropic".
A designação formal foi oficialmente confirmada em 4 de março de 2026 (EST), tornando a Anthropic a primeira empresa dos EUA na história a receber essa classificação.
As Ações Judiciais: Duas Frentes, Uma Mensagem
A Anthropic entrou com duas ações judiciais separadas — uma no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia e outra no Tribunal de Apelações do Circuito dos EUA para Washington, D.C. — cada uma visando diferentes aspectos das ações do governo. A reclamação de 48 páginas descreve as ações da administração como "sem precedentes e ilegais".
Os documentos apresentam três argumentos legais centrais. Primeiro, que o governo federal retaliou contra a Anthropic por exercer a fala protegida pela Primeira Emenda sobre assuntos de importância pública — especificamente, suas posições declaradas sobre segurança de IA. Segundo, que o Presidente Trump excedeu sua autoridade ao ordenar que todas as agências federais parassem de usar a tecnologia da Anthropic. E terceiro, que à Anthropic foi negado o devido processo legal adequado antes de ser submetida à designação de risco na cadeia de suprimentos.
"A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida", afirma a ação judicial. "A Anthropic recorre ao judiciário como último recurso para defender seus direitos e interromper a campanha ilegal de retaliação do Executivo."
As Apostas Financeiras
As consequências econômicas da lista negra já estão sendo sentidas. A Anthropic alertou em seu processo que "contratos com o governo federal já estão sendo cancelados" e que "centenas de milhões de dólares" em receita de curto prazo estão em risco. A empresa está projetada para gerar aproximadamente US$ 14 bilhões em receita em 2026, com mais de 500 clientes pagando pelo menos US$ 1 milhão anualmente por Claude. Sua avaliação mais recente é de US$ 380 bilhões.
Além dos contratos governamentais, a empresa está preocupada que a designação de risco na cadeia de suprimentos — mesmo que seja estritamente limitada ao trabalho relacionado ao Pentágono — esteja lançando dúvidas sobre seus relacionamentos comerciais mais amplos.
Reação da Indústria: Rivais Mostram Apoio
Em uma demonstração incomum de solidariedade entre laboratórios de IA concorrentes, dezenas de cientistas e pesquisadores da OpenAI e do Google DeepMind apresentaram um amicus brief em suas capacidades pessoais na segunda-feira apoiando a Anthropic. O grupo argumentou que a designação de risco na cadeia de suprimentos poderia prejudicar a competitividade dos EUA em IA e suprimir debates públicos importantes sobre o desenvolvimento responsável da tecnologia.
Notavelmente, a OpenAI — possivelmente a maior rival da Anthropic — fechou seu próprio acordo com o Pentágono poucas horas depois que o governo puniu a Anthropic. No entanto, a OpenAI também declarou publicamente que discordava de designar a Anthropic como um risco na cadeia de suprimentos, dizendo: "Um bom futuro exigirá colaboração real e profunda entre o governo e os laboratórios de IA."
Posição do Pentágono
Oficiais do Departamento de Defesa mantiveram que empresas privadas não podem ditar como o governo dos EUA implanta tecnologia em operações de guerra e táticas. O Pentágono insistiu em ter total flexibilidade para usar IA para "qualquer uso legal", argumentando que as restrições da Anthropic poderiam colocar vidas americanas em perigo no campo de batalha. Em resposta à ação judicial, um porta-voz do DoD declarou simplesmente que a agência não comenta assuntos em litígio.
A porta-voz da Casa Branca, Liz Huston, disse em um comunicado: "O Presidente e o Secretário de Guerra estão garantindo que os corajosos combatentes da América tenham as ferramentas apropriadas de que precisam para serem bem-sucedidos e garantirão que eles nunca sejam reféns dos caprichos ideológicos de líderes de Big Tech."
Claude Ainda em Uso — Mesmo Durante o Conflito no Irã
Em uma ironia marcante, a CBS News e a CNBC relataram que o Pentágono continuou a usar Claude durante as operações militares em andamento dos EUA e de Israel envolvendo o Irã — mesmo após a implementação da lista negra formal. O Wall Street Journal também relatou que Claude havia sido usado anteriormente em operações militares, incluindo avaliações de inteligência e identificação de alvos no Irã, e na operação que levou à prisão do líder venezuelano Nicolás Maduro.
A Anthropic reconheceu sua parceria com empreiteiros de segurança nacional, incluindo a Palantir, para processamento de dados, identificação de tendências e apoio à tomada de decisões governamentais — trabalho que afirma estar dentro dos limites éticos.
O Que Acontece a Seguir
A Anthropic está buscando uma liminar para bloquear a ordem de risco na cadeia de suprimentos de Hegseth e declará-la "arbitrária, caprichosa, um abuso de discrição e contrária à lei". A empresa também declarou que sua decisão de buscar revisão judicial não impede um diálogo mais aprofundado com o governo.
"Buscar revisão judicial não altera nosso compromisso de longa data em aproveitar a IA para proteger nossa segurança nacional", disse um porta-voz da Anthropic, "mas este é um passo necessário para proteger nosso negócio, nossos clientes e nossos parceiros. Continuaremos a buscar todos os caminhos para a resolução, incluindo o diálogo com o governo."
O resultado deste caso provavelmente estabelecerá um precedente importante não apenas para a Anthropic, mas para toda a indústria de IA — determinando o quanto o governo detém o poder de obrigar empresas de tecnologia a remover salvaguardas de segurança e se os compromissos éticos corporativos em IA podem coexistir com as demandas de segurança nacional.