Na Lista Negra, Mas Ainda Ativa: Como a Claude AI Potenciou o Ataque Americano ao Irã Enquanto Estava Banida pelo Pentágono

March 07, 2026
Claude
5 min

Resumo de Notícias

Em uma das demonstrações mais significativas de inteligência artificial em guerra moderna, o modelo de IA Claude da Anthropic foi implantado pelo Comando Central dos EUA (CENTCOM) durante a campanha militar conjunta EUA-Israel contra o Irã — codinome "Roaring Lion" e "Operation Epic Fury" — mesmo com a Casa Branca proibindo formalmente seu uso horas antes.

O que Claude Fez no Campo de Batalha

De acordo com reportagens do The Wall Street Journal, Axios e CBS News, os militares dos EUA usaram Claude para três funções principais: avaliação de inteligência, identificação de alvos e simulação de cenários de batalha. Nas primeiras 24 horas de ataques, que começaram no sábado, 28 de fevereiro de 2026 (ET), os EUA atingiram aproximadamente 1.000 alvos iranianos — um ritmo que analistas militares dizem ter sido operacionalmente impossível sem planejamento assistido por IA.

Claude, integrado a uma plataforma de direcionamento classificada desenvolvida pela Palantir e hospedada na Nuvem Top Secret da Amazon Web Services, processou volumes massivos de dados recebidos — filmagens de drones, interceptações de rádio, imagens de satélite e inteligência humana — para localizar, priorizar e referenciar alvos de alto valor, incluindo ativos militares iranianos, complexos de liderança e infraestrutura estratégica. De acordo com relatos, o sistema até realizou revisões legais preliminares para avaliar a conformidade com o direito internacional antes de recomendar ataques.

Entre os resultados relatados da operação estava a morte do Líder Supremo do Irã, o Aiatolá Ali Khamenei, cuja localização foi confirmada por inteligência da CIA descrita como dados posicionais de "alta fidelidade" que Israel usou em conjunto com suas próprias preparações para executar um ataque visando uma rara reunião de altos funcionários iranianos em um complexo governamental no centro de Teerã.

O Paradoxo: Banido, mas Ainda em Funcionamento

A implantação ocorreu em circunstâncias políticas extraordinárias. Na sexta-feira, 27 de fevereiro de 2026 (ET), o Secretário de Defesa dos EUA, Pete Hegseth, ordenou que a Anthropic fosse designada como um "Risco de Cadeia de Suprimentos para a Segurança Nacional", proibindo efetivamente todos os contratados, fornecedores e parceiros do Pentágono de realizar atividades comerciais com a empresa. A disputa centrou-se na recusa da Anthropic em remover restrições éticas do Claude — especificamente, salvaguardas que impedem o modelo de apoiar sistemas de armas letais totalmente autônomos ou permitir a vigilância doméstica em massa de cidadãos dos EUA.

Apesar da proibição, a integração do Claude em sistemas militares classificados era tão profunda que o Pentágono não conseguiu desvinculá-lo a tempo. Várias fontes de defesa disseram à CBS News e à Defense One que substituir as capacidades do Claude levaria pelo menos três meses.

"O Pentágono exigiu direitos mais amplos para usar Claude 'para todos os fins legais'", explicaram fontes familiarizadas com a disputa contratual, mas a Anthropic recusou. O resultado foi um paradoxo notável: uma ferramenta de IA oficialmente colocada na lista negra pelo governo dos EUA estava simultaneamente impulsionando uma das operações militares mais complexas do século XXI.

Papel do Claude: Suporte à Decisão, Não Autonomia

Relatos em vários veículos de comunicação tiveram o cuidado de esclarecer que Claude não controlava armas de forma autônoma nem tomava decisões letais independentemente. Em vez disso, funcionou como uma ferramenta de suporte à decisão de alta velocidade — sintetizando inteligência, modelando resultados, simulando sequências de ataque e apresentando recomendações a operadores humanos que mantinham a autoridade final. O Professor Craig Jones, da Universidade de Newcastle, observou que as recomendações geradas por IA agora chegam "mais rápido do que a mente humana consegue" processar opções alternativas, comprimindo a tradicional "cadeia de abate" de dias ou semanas para segundos.

Também foi relatado que Claude desempenhou um papel na operação de janeiro de 2026 que levou à captura do presidente venezuelano Nicolás Maduro, sinalizando que sua integração militar antecede a campanha do Irã.

Posição da Anthropic

Em um comunicado divulgado no sábado, 1º de março de 2026 (ET), a Anthropic disse que deixou claro que "apoia todos os usos legais de IA para a segurança nacional". A empresa não confirmou nem negou publicamente o envolvimento de sua tecnologia nos ataques ao Irã. O CEO da Anthropic, Dario Amodei, havia discursado na Cúpula de Impacto da IA em Nova Delhi em 19 de fevereiro de 2026 (IST), onde discussões sobre governança e segurança de IA foram proeminentes.

Analistas agora debatem se o governo dos EUA reverterá sua designação de "risco de cadeia de suprimentos" — dado que os militares não podem substituir Claude atualmente — ou dobrará a aposta, abrindo um contrato para um rival menos principista. Como um comentarista resumiu, esmagar um dos laboratórios de IA mais conscientes da segurança do país por se recusar a remover limites éticos seria, em termos de teoria dos jogos, "pura estupidez".

O Amanhecer da Guerra Impulsionada por IA

Os ataques ao Irã se tornaram a primeira demonstração pública em larga escala de guerra impulsionada por IA no mundo. O papel de Claude — por mais contestado, por mais paradoxal que seja — marca um ponto de inflexão. A IA não é mais uma capacidade futura sendo avaliada para o campo de batalha. Ela já está lá, moldando o ritmo, a precisão e a política do conflito moderno.