×

Anthropic lleva al Pentágono a los tribunales tras la etiqueta de riesgo en la cadena de suministro

El enfrentamiento judicial entre Anthropic y el Pentágono, analizado desde argumentos legales, motivos de seguridad y el alcance de la libertad de expresión empresarial

El 24 de marzo de 2026 una audiencia federal en San Francisco puso en primer plano el choque entre una de las empresas líderes en inteligencia artificial y el aparato de seguridad estadounidense. Ante la jueza Rita F. Lin, Anthropic solicitó una medida cautelar para frenar la prohibición del gobierno que impide a agencias y contratistas usar su modelo Claude.

El litigio nace de la decisión del Pentágono de catalogar a la compañía como un riesgo en la cadena de suministro, una etiqueta que en la práctica bloquea contratos y relaciones comerciales con el sector público.

La controversia se agravó después de que, a finales de febrero de 2026, el consejero delegado de Anthropic, Dario Amodei, declarara que la empresa no permitiría que Claude se utilizara para armamento autónomo sin supervisión humana ni para una vigilancia masiva de civiles.

Tras esas declaraciones, la Casa Blanca y el Departamento de Defensa anunciaron restricciones y, en 2026, la compañía había firmado un contrato de 200 millones de dólares con el Pentágono para uso en sistemas clasificados. El 9 de marzo de 2026 Anthropic presentó dos demandas federales que cuestionan tanto la legalidad de la designación como la posible vulneración de su primera enmienda y otros derechos.

Argumentos centrales en la corte

En la sala, los abogados de Anthropic sostuvieron que la etiqueta impuesta por el gobierno es inusual y carece de precedentes cuando se aplica a una empresa nacional; históricamente, este tipo de designaciones había apuntado a adversarios extranjeros. La firma afirma que la acción equivale a una forma de represalia por sus políticas públicas sobre seguridad de IA y que causará daños comerciales irreparables al cerrarle la puerta a contratistas del Pentágono. La compañía busca que el tribunal emita una orden provisional que permita a agencias y socios continuar usando Claude mientras se resuelve el fondo del asunto.

Lo que defiende Anthropic

Anthropic argumenta que sus límites sobre usos militares concretos obedecen a criterios técnicos y éticos: su equipo considera que el modelo no está preparado para decisiones letales autónomas ni para sistemas de vigilancia masiva. Según la compañía, esas posturas son expresiones protegidas por la libertad de expresión y por políticas internas de seguridad, y no pueden transformarse en sanciones administrativas. Además, alertan de las consecuencias prácticas: pérdida de ingresos, erosionamiento de la confianza con clientes y la imposibilidad de competir en licitaciones que exigen no estar en listas de riesgo.

La postura del gobierno

El Departamento de Defensa replica que tiene la potestad de decidir qué productos emplea y que la etiqueta responde a preocupaciones legítimas de seguridad nacional. Los abogados gubernamentales sostienen que existe un riesgo teórico de que Anthropic pudiera, en el futuro, modificar Claude de forma que comprometa operaciones militares o que intente deshabilitar su tecnología en momentos críticos. También defendieron la acción administrativa como una medida preventiva no motivada por represalias por declaraciones públicas. La jueza, sin embargo, puso en duda si algunas decisiones del Ejecutivo no se parecían más a una medida punitiva que a una política proporcionada.

Reacciones, aliados y efectos prácticos

El caso ha atraído a firmas tecnológicas y grupos académicos que ofrecieron amicus briefs en apoyo de Anthropic, incluidos investigadores y compañías importantes del sector que debaten los límites entre la innovación y la tutela estatal. Paralelamente, el Pentágono ha buscado alternativas con otros proveedores como OpenAI, xAI y Google para mitigar la dependencia operativa. En los tribunales se recordó que la desvinculación de sistemas ya integrados en procesos gubernamentales es costosa y puede causar interrupciones operativas, en especial cuando la tecnología se emplea en tareas sensibles como el análisis de inteligencia o apoyo en decisiones tácticas.

Qué está en juego

Más allá del resultado inmediato, la disputa plantea preguntas sobre quién define los límites de la tecnología militar: ¿las empresas según sus códigos de seguridad o las autoridades por motivos de defensa? La decisión de la jueza Lin, prevista en los días siguientes a la audiencia, podría marcar un precedente sobre la capacidad del Ejecutivo para restringir proveedores por motivos de política pública y sobre la protección de la voz corporativa en asuntos de seguridad. Mientras tanto, la batalla judicial será observada como un test sobre la gobernanza de la inteligencia artificial y la tensión entre innovación y control estatal.


Contacto:
Lucia Ferretti

Reportera de investigacion, 14 anos cubriendo temas sociales y derechos civiles.