Anthropic Lleva al Gobierno de EE. UU. a los Tribunales: Dentro del Enfrentamiento Sin Precedentes por la Seguridad de la IA que Podría Remodelar la Industria Tecnológica
Resumen de Noticias
San Francisco, CA — Lunes, 9 de marzo de 2026 (EDT)
Anthropic, una de las principales empresas de inteligencia artificial del mundo y creadora del modelo Claude AI, presentó el lunes dos demandas federales contra la administración Trump, el Departamento de Defensa y más de una docena de otras agencias federales. La acción legal impugna la decisión sin precedentes del gobierno de etiquetar a la empresa de IA con sede en San Francisco como un "riesgo en la cadena de suministro para la seguridad nacional", una designación históricamente reservada para empresas vinculadas a adversarios extranjeros.
El Punto de Quiebre: Un Enfrentamiento de Dos Semanas
El conflicto entre Anthropic y el Pentágono escaló rápidamente en las últimas dos semanas. En el centro de la disputa se encuentra la negativa del CEO Dario Amodei a permitir que el modelo Claude AI de la empresa se utilice sin restricciones, específicamente para sistemas de armas totalmente autónomos y la vigilancia doméstica masiva de ciudadanos estadounidenses. Amodei se reunió con el Secretario de Defensa Pete Hegseth en febrero con la esperanza de negociar un acuerdo, pero las negociaciones fracasaron públicamente.
El 27 de febrero, el presidente Trump publicó en redes sociales una directiva a todas las agencias federales para que "CESEN INMEDIATAMENTE todo uso de la tecnología de Anthropic", calificando a la empresa de "EMPRESA RADICAL DE IZQUIERDA Y DESPIERTA". Ese mismo día, el Secretario Hegseth anunció que Anthropic sería designada oficialmente como un riesgo en la cadena de suministro, declarando además que "ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic".
La designación formal se confirmó oficialmente el 4 de marzo de 2026 (EST), convirtiendo a Anthropic en la primera empresa estadounidense en la historia en recibir esta clasificación.
Las Demandas: Dos Frentes, Un Mensaje
Anthropic presentó dos demandas separadas, una en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California y otra en el Tribunal de Apelaciones del Circuito de EE. UU. para Washington, D.C., cada una apuntando a diferentes aspectos de las acciones del gobierno. La queja de 48 páginas describe las medidas de la administración como "sin precedentes e ilegales".
Las presentaciones exponen tres argumentos legales centrales. Primero, que el gobierno federal tomó represalias contra Anthropic por ejercer la libertad de expresión protegida por la Primera Enmienda sobre asuntos de importancia pública, específicamente sus posiciones declaradas sobre la seguridad de la IA. Segundo, que el presidente Trump excedió su autoridad al ordenar a todas las agencias federales que dejaran de usar la tecnología de Anthropic. Y tercero, que a Anthropic se le negó un debido proceso adecuado antes de ser sometida a la designación de riesgo en la cadena de suministro.
"La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido", afirma la demanda. "Anthropic recurre al poder judicial como último recurso para defender sus derechos y detener la campaña ilegal de represalias del Ejecutivo".
Las Apuestas Financieras
Las consecuencias económicas de la lista negra ya se están sintiendo. Anthropic advirtió en su presentación que "los contratos con el gobierno federal ya están siendo cancelados" y que "cientos de millones de dólares" en ingresos a corto plazo están en riesgo. Se proyecta que la empresa genere aproximadamente 14 mil millones de dólares en ingresos en 2026, con más de 500 clientes pagando al menos 1 millón de dólares anuales por Claude. Su valoración más reciente se sitúa en 380 mil millones de dólares.
Más allá de los contratos gubernamentales, la empresa está preocupada de que la designación de riesgo en la cadena de suministro, incluso si se limita al trabajo relacionado con el Pentágono, esté sembrando dudas sobre sus relaciones comerciales más amplias.
Reacción de la Industria: Rivales Muestran Apoyo
En una inusual muestra de solidaridad entre laboratorios de IA competidores, docenas de científicos e investigadores de OpenAI y Google DeepMind presentaron el lunes un escrito de amicus curiae a título personal en apoyo de Anthropic. El grupo argumentó que la designación de riesgo en la cadena de suministro podría dañar la competitividad de EE. UU. en IA y reprimir el importante debate público sobre el desarrollo responsable de la tecnología.
Notablemente, OpenAI, posiblemente el mayor rival de Anthropic, llegó a un acuerdo propio con el Pentágono apenas unas horas después de que el gobierno sancionara a Anthropic. Sin embargo, OpenAI también declaró públicamente que no estaba de acuerdo con designar a Anthropic como un riesgo en la cadena de suministro, diciendo: "Un buen futuro requerirá una colaboración real y profunda entre el gobierno y los laboratorios de IA".
La Posición del Pentágono
Funcionarios del Departamento de Defensa sostuvieron que las empresas privadas no pueden dictar cómo el gobierno de EE. UU. despliega tecnología en operaciones de guerra y tácticas. El Pentágono insistió en tener total flexibilidad para usar la IA para "cualquier uso legal", argumentando que las restricciones de Anthropic podrían poner en peligro vidas estadounidenses en el campo de batalla. En respuesta a la demanda, un portavoz del DoD declaró simplemente que la agencia no comenta sobre asuntos en litigio.
La portavoz de la Casa Blanca, Liz Huston, dijo en un comunicado: "El Presidente y el Secretario de Guerra están asegurando que los valientes combatientes de Estados Unidos tengan las herramientas apropiadas que necesitan para tener éxito y garantizarán que nunca sean rehenes de los caprichos ideológicos de ningún líder de las grandes tecnológicas".
Claude Sigue en Uso — Incluso Durante el Conflicto con Irán
En una sorprendente ironía, CBS News y CNBC informaron que el Pentágono ha continuado utilizando Claude durante las operaciones militares en curso de EE. UU. e Israel que involucran a Irán, incluso después de que se implementara la lista negra formal. The Wall Street Journal también informó que Claude había sido utilizado previamente en operaciones militares, incluyendo evaluaciones de inteligencia e identificación de objetivos en Irán, y en la operación que condujo al arresto del líder venezolano Nicolás Maduro.
Anthropic reconoció su asociación con contratistas de seguridad nacional, incluyendo Palantir, para el procesamiento de datos, la identificación de tendencias y el apoyo a la toma de decisiones gubernamentales, un trabajo que, según afirma, se encuentra dentro de los límites éticos.
¿Qué Sucede Después?
Anthropic busca una medida cautelar para bloquear la orden de riesgo en la cadena de suministro de Hegseth y que se declare "arbitraria, caprichosa, un abuso de discreción y contraria a la ley". La empresa también declaró que su decisión de buscar revisión judicial no descarta un mayor diálogo con el gobierno.
"Buscar la revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional", dijo un portavoz de Anthropic, "pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios. Continuaremos buscando todos los caminos hacia la resolución, incluido el diálogo con el gobierno".
El resultado de este caso probablemente sentará un precedente importante no solo para Anthropic, sino para toda la industria de la IA, determinando cuánta autoridad tiene el gobierno para obligar a las empresas tecnológicas a eliminar las salvaguardias de seguridad, y si los compromisos éticos corporativos sobre la IA pueden coexistir con las demandas de seguridad nacional.