El Pentágono Elige a OpenAI sobre Anthropic mientras el Debate sobre los Poderes de Guerra de la IA Llega a un Punto Crítico
OpenAI llega a un acuerdo clasificado de IA con el Pentágono horas después de que Trump pusiera en lista negra a Anthropic
Antecedentes: Una semana de turbulencia política en la IA
La semana del 23 al 28 de febrero de 2026 resultó ser una de las más dramáticas en la historia de la industria de la inteligencia artificial. En su centro: un enfrentamiento de alto riesgo entre el Departamento de Defensa de EE. UU. (DoD), ahora rebautizado oficialmente por la administración Trump como el "Departamento de Guerra", y las principales empresas de IA sobre los términos bajo los cuales los modelos avanzados de IA podrían desplegarse en entornos militares clasificados.
El Pentágono había estado presionando a las empresas de IA para que permitieran que sus modelos se utilizaran para "todos los fines legales", un mandato amplio que hizo sonar las alarmas en varios laboratorios de vanguardia. Anthropic, la empresa de seguridad de IA detrás de la familia de modelos Claude, trazó una línea roja firme: su tecnología no se utilizaría para la vigilancia masiva interna ni para sistemas de armas totalmente autónomos.
Anthropic en la lista negra: Una designación histórica
El viernes 28 de febrero de 2026 (hora del Este), el Secretario de Defensa Pete Hegseth tomó una medida extraordinaria: designar formalmente a Anthropic como un "Riesgo de Cadena de Suministro para la Seguridad Nacional". Esta designación, típicamente reservada para empresas con vínculos con adversarios extranjeros, conllevó severas consecuencias prácticas: con efecto inmediato, ningún contratista, proveedor o socio que hiciera negocios con el ejército de EE. UU. tendría permitido realizar ninguna actividad comercial con Anthropic.
El presidente Donald Trump también recurrió a las redes sociales, calificando al liderazgo de la empresa de "lunáticos de izquierda" y ordenando a todas las agencias federales que dejaran de usar los productos de Anthropic después de un período de transición de seis meses.
Anthropic respondió que estaba "profundamente entristecido" por la decisión y anunció que tiene la intención de impugnar la designación en los tribunales. La empresa declaró que aún no había recibido comunicación directa del Departamento de Guerra o de la Casa Blanca con respecto al estado de las negociaciones.
OpenAI se mueve rápido: Un acuerdo hecho
A las pocas horas de la inclusión de Anthropic en la lista negra, el CEO de OpenAI, Sam Altman, anunció el viernes por la noche (hora del Este) que su empresa había llegado a un acuerdo con el Departamento de Guerra para desplegar sus modelos de IA dentro de la red clasificada del Pentágono.
"Esta noche, llegamos a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada", escribió Altman en X. "En todas nuestras interacciones, el DoW mostró un profundo respeto por la seguridad y un deseo de asociarse para lograr el mejor resultado posible".
Altman reconoció internamente en una reunión general que el acuerdo se había "acelerado definitivamente" y que "la imagen no es buena", pero defendió la decisión como necesaria para desescalar una peligrosa confrontación entre el gobierno y la industria de la IA.
Tres líneas rojas: Lo que OpenAI permitirá y no permitirá
OpenAI publicó una detallada entrada de blog que describe los términos y protecciones integrados en su acuerdo. La empresa estableció tres líneas rojas no negociables:
- No a la vigilancia masiva interna — La tecnología de OpenAI no puede usarse para vigilar a personas de EE. UU. a gran escala.
- No a las armas autónomas — Los modelos no pueden usarse para dirigir sistemas de armas sin supervisión humana.
- No a las decisiones automatizadas de alto riesgo — Esto incluye sistemas de estilo de crédito social o mecanismos de juicio automatizado equivalentes.
OpenAI afirma que su acuerdo va más allá de cualquier contrato de despliegue de IA clasificado anterior, incluido el contrato original de Anthropic, al utilizar un enfoque de aplicación de múltiples capas: despliegue solo en la nube (sin despliegue en el borde), una "pila de seguridad" interna que el gobierno no puede anular, personal de OpenAI autorizado integrado en las operaciones y un lenguaje contractual sólido.
Altman declaró que si un modelo se niega a realizar una tarea, el gobierno ha acordado que no obligará a OpenAI a anular esa negativa.
Reacción y escrutinio de la industria
El acuerdo atrajo inmediatamente elogios y críticas. Más de 60 empleados de OpenAI y 300 empleados de Google habían firmado una carta abierta a principios de semana instando a sus empleadores a apoyar la posición de Anthropic.
Los críticos plantearon preguntas sobre las protecciones reales del contrato. Mike Masnick de Techdirt argumentó que el acuerdo "absolutamente permite la vigilancia interna" basándose en su referencia a la Orden Ejecutiva 12333, que rige la recopilación de inteligencia fuera de las fronteras de EE. UU., pero que se sabe ampliamente que captura datos sobre ciudadanos estadounidenses.
La jefa de asociaciones de seguridad nacional de OpenAI, Katrina Mulligan, respondió: "La arquitectura de despliegue importa más que el lenguaje del contrato", escribió en LinkedIn, argumentando que el despliegue de API solo en la nube garantiza que los modelos no puedan ser reutilizados para la vigilancia a nivel de infraestructura.
Señal del mercado: Claude supera a ChatGPT
En un sorprendente desarrollo del mercado, el Claude de Anthropic superó al ChatGPT de OpenAI en las clasificaciones de la App Store de Apple el sábado 1 de marzo de 2026, una posible señal de simpatía pública hacia la postura más dura de Anthropic sobre las salvaguardias de seguridad de la IA.
¿Qué sucede a continuación?
OpenAI ha pedido públicamente al Departamento de Guerra que extienda los mismos términos contractuales a todas las empresas de IA, incluida Anthropic, en un esfuerzo por desescalar el conflicto más amplio. Altman expresó su esperanza de que el acuerdo sirva como modelo para la colaboración responsable entre el gobierno y la IA, en lugar de una cuña que divida a la industria.
Anthropic, por su parte, se está preparando para acciones legales y continúa presionando para ser reinstalado en los contratos gubernamentales. La situación sigue siendo fluida a partir del lunes 2 de marzo de 2026.