Vetada pero aún en funcionamiento: Cómo la IA Claude impulsó el ataque de Estados Unidos a Irán mientras estaba prohibida por el Pentágono

March 07, 2026
Claude
5 min

Resumen de Noticias

En una de las demostraciones más trascendentales de inteligencia artificial en la guerra moderna, el modelo de IA Claude de Anthropic fue desplegado por el Comando Central de EE. UU. (CENTCOM) durante la campaña militar conjunta de EE. UU. e Israel contra Irán —con nombres en clave "Roaring Lion" y "Operation Epic Fury"— incluso cuando la Casa Blanca prohibió formalmente su uso horas antes.

Lo que Claude Hizo en el Campo de Batalla

Según informes de The Wall Street Journal, Axios y CBS News, el ejército de EE. UU. utilizó Claude para tres funciones principales: evaluación de inteligencia, identificación de objetivos y simulación de escenarios de batalla. En las primeras 24 horas de ataques que comenzaron el sábado 28 de febrero de 2026 (hora del este), EE. UU. alcanzó aproximadamente 1.000 objetivos iraníes, un ritmo que los analistas militares dicen que habría sido operacionalmente imposible sin la planificación asistida por IA.

Claude, integrado en una plataforma de objetivos clasificada desarrollada por Palantir y alojada en la Nube Top Secret de Amazon Web Services, procesó volúmenes masivos de datos entrantes —imágenes de drones, interceptaciones de radio, imágenes satelitales e inteligencia humana— para localizar, priorizar y cotejar objetivos de alto valor, incluidos activos militares iraníes, complejos de liderazgo e infraestructura estratégica. Según los informes, el sistema incluso realizó revisiones legales preliminares para evaluar el cumplimiento del derecho internacional antes de recomendar ataques.

Entre los resultados reportados de la operación se encontraba la muerte del Líder Supremo de Irán, el Ayatolá Ali Jamenei, cuya ubicación fue confirmada a través de inteligencia de la CIA descrita como datos posicionales de "alta fidelidad" que Israel utilizó junto con sus propias preparaciones para ejecutar un ataque dirigido a una rara reunión de altos funcionarios iraníes en un complejo gubernamental en el centro de Teherán.

La Paradoja: Prohibido pero Aún en Funcionamiento

El despliegue se desarrolló en circunstancias políticas extraordinarias. El viernes 27 de febrero de 2026 (hora del este), el Secretario de Defensa de EE. UU., Pete Hegseth, ordenó que Anthropic fuera designado como un "Riesgo de Cadena de Suministro para la Seguridad Nacional", prohibiendo efectivamente a todos los contratistas, proveedores y socios del Pentágono realizar actividades comerciales con la empresa. La disputa se centró en la negativa de Anthropic a eliminar las restricciones éticas de Claude, específicamente, las salvaguardias que impiden que el modelo apoye sistemas de armas letales totalmente autónomos o permita la vigilancia masiva interna de ciudadanos estadounidenses.

A pesar de la prohibición, la integración de Claude en los sistemas militares clasificados era tan profunda que el Pentágono no pudo desvincularlo a tiempo. Múltiples fuentes de defensa dijeron a CBS News y Defense One que reemplazar las capacidades de Claude llevaría al menos tres meses.

"El Pentágono exigió derechos más amplios para usar Claude 'para todos los fines lícitos'", explicaron fuentes familiarizadas con la disputa contractual, pero Anthropic se negó. El resultado fue una paradoja notable: una herramienta de IA oficialmente incluida en la lista negra por el gobierno de EE. UU. estaba simultáneamente impulsando una de las operaciones militares más complejas del siglo XXI.

El Papel de Claude: Soporte a la Decisión, No Autonomía

Los informes de múltiples medios se cuidaron de aclarar que Claude no controlaba de forma autónoma los sistemas de armas ni tomaba decisiones letales de forma independiente. Más bien, funcionaba como una herramienta de apoyo a la decisión de alta velocidad: sintetizando inteligencia, modelando resultados, simulando secuencias de ataque y presentando recomendaciones a operadores humanos que conservaban la autoridad final. El profesor Craig Jones de la Universidad de Newcastle señaló que las recomendaciones generadas por IA ahora llegan "más rápido de lo que la mente humana puede" procesar opciones alternativas, comprimiendo la tradicional "cadena de muerte" de días o semanas a segundos.

También se informó que Claude desempeñó un papel en la operación de enero de 2026 que condujo a la captura del presidente venezolano Nicolás Maduro, lo que indica que su integración militar precede a la campaña iraní.

La Posición de Anthropic

En un comunicado emitido el sábado 1 de marzo de 2026 (hora del este), Anthropic dijo que había dejado claro que "apoya todos los usos lícitos de la IA para la seguridad nacional". La empresa no confirmó ni negó públicamente la participación de su tecnología en los ataques a Irán. El CEO de Anthropic, Dario Amodei, había intervenido en la Cumbre de Impacto de la IA en Nueva Delhi tan recientemente como el 19 de febrero de 2026 (IST), donde las discusiones sobre la gobernanza y la seguridad de la IA fueron prominentes.

Los analistas debaten ahora si el gobierno de EE. UU. revertirá su designación de "riesgo de cadena de suministro" —dado que el ejército no puede reemplazar Claude actualmente— o redoblará la apuesta, abriendo un contrato a un rival menos principista. Como lo expresó un comentarista, aplastar uno de los laboratorios de IA más conscientes de la seguridad de la nación por negarse a eliminar los límites éticos sería, en términos de teoría de juegos, "pura estupidez".

El Amanecer de la Guerra Impulsada por IA

Los ataques a Irán se han convertido en la primera demostración pública a gran escala de la guerra impulsada por IA en el mundo. El papel de Claude —por muy disputado, por muy paradójico que sea— marca un punto de inflexión. La IA ya no es una capacidad futura que se evalúa para el campo de batalla. Ya está ahí, dando forma al ritmo, la precisión y la política del conflicto moderno.