Anthropic lleva a los tribunales al Gobierno de Trump tras ser vetada por el Pentágono por negarse a armar su IA sin restricciones

La empresa de inteligencia artificial demanda al Departamento de Defensa por una designación inédita que bloquea sus contratos federales y que, según la compañía, castiga su posición ética sobre el uso militar de la tecnología

Anthropic desafía al Pentágono y Trump ordena el boicot

Claude, el chatbot de inteligencia artificial de Anthropic.
Susana C. Gómez

09 de marzo 2026 - 21:04

La startup de inteligencia artificial Anthropic presentó este lunes una demanda ante un tribunal federal en California para bloquear la decisión del Departamento de Defensa (ahora de Guerra) de incluirla en una lista negra de seguridad nacional, llevando a los juzgados un conflicto que lleva meses gestándose entre la empresa y la administración Trump en torno a una cuestión aún sin resolver: quién decide cómo y para qué se usa una tecnología capaz de cambiar la naturaleza misma de la guerra, la vigilancia y el poder.

En su escrito judicial, Anthropic sostiene que la medida es inconstitucional y viola sus derechos a la libertad de expresión y al debido proceso. "La Constitución no permite al Gobierno usar su enorme poder para castigar a una empresa por su discurso protegido", señala la demanda. La empresa pide al tribunal que anule la designación y bloquee a las agencias federales de aplicarla.

La compañía, con sede en San Francisco y creadora del asistente de inteligencia artificial Claude, también ha dejado abierta la puerta a retomar las negociaciones con el Gobierno y alcanzar un acuerdo extrajudicial. El Pentágono ha respondido que no hará comentarios sobre litigios en curso.

Una figura reservada para amenazas extranjeras, aplicada por primera vez a una empresa americana

El origen del conflicto se remonta a julio de 2025, cuando Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa para desarrollar capacidades de inteligencia artificial en sistemas clasificados.

Claude, su modelo de lenguaje, se desplegó en redes secretas, laboratorios nacionales y agencias de inteligencia. La empresa se convirtió así en la primera del sector en alcanzar ese nivel de integración en el aparato de defensa estadounidense.

Pero el acuerdo llevaba condiciones. Anthropic había introducido en el contrato dos salvaguardas explícitas: la prohibición de usar Claude en sistemas de armas totalmente autónomas (aquellas que seleccionan y atacan objetivos sin intervención humana) y la prohibición de emplearlo para vigilancia doméstica masiva de ciudadanos estadounidenses. Dos líneas rojas que la empresa consideraba, y sigue considerando, innegociables.

El Pentágono no lo veía igual. Durante meses de negociaciones, el Departamento exigió tener "plena flexibilidad" para usar la tecnología en "cualquier uso legal", argumentando que una empresa privada no podía fijar los límites de la política de defensa del país.

Según informó en su momento The Washington Post, el jefe tecnológico del Departamento llegó a plantear durante una reunión el escenario de un misil balístico dirigiéndose hacia suelo americano: ¿podría el ejército usar Claude para derribarlo? La pregunta, cargada de retórica, era en realidad una palanca para forzar la retirada de las garantías contractuales. Anthropic se negó.

El 27 de febrero, el secretario de Defensa, Pete Hegseth, dio el paso que la empresa llevaba semanas temiendo: designó formalmente a Anthropic como "riesgo para la cadena de suministro" (supply chain risk), una figura jurídica habitualmente reservada para compañías que suponen una amenaza grave para la seguridad nacional, en muchos casos por vínculos con gobiernos extranjeros hostiles. Según la propia Anthropic, nunca antes se había aplicado a una empresa estadounidense.

Ese mismo día, Donald Trump publicó en su red Truth Social una orden para que todas las agencias federales cesaran de inmediato el uso de la tecnología de la compañía: "¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!". Trump fijó un plazo de seis meses para completar la transición y advirtió de que usaría "todo el poder de la presidencia" para hacer cumplir la medida.

Amodei: "No nos moverán por intimidación ni castigo"

Anthropic reaccionó con una firmeza que pocos esperaban. Su consejero delegado, Dario Amodei, publicó un comunicado (ampliado después en una carta interna filtrada a la prensa y de la que más tarde se disculpó por el tono) en el que recordó que la empresa había sido la primera del sector en desplegar modelos en redes clasificadas, que había renunciado a cientos de millones de dólares en ingresos para cortar el acceso a empresas vinculadas al Partido Comunista chino y que había apoyado los controles de exportación de chips para preservar la ventaja tecnológica de las democracias occidentales.

A continuación, Amodei defendió sus dos líneas rojas con argumentos que combinan la ética con la técnica.

Sobre la vigilancia masiva, argumentó que la ley no ha tenido tiempo de adaptarse a lo que la inteligencia artificial hace posible hoy: agregar datos dispersos e individualmente inocuos (movimientos, navegación web, asociaciones) para construir, de forma automática y a escala masiva, un retrato completo de la vida privada de cualquier ciudadano.

Sobre las armas autónomas, el argumento es directo: los modelos de lenguaje actuales, incluido Claude, no son suficientemente fiables para tomar decisiones de vida o muerte sin supervisión humana. Usarlos así no solo pone en riesgo a civiles; también pone en riesgo a los propios soldados americanos.

En el comunicado del 5 de marzo, tras recibir la carta formal del Departamento de Defensa confirmando la designación, Amodei reiteró que la empresa impugnaría la medida en los tribunales, subrayó que el alcance de la designación era "estricto y limitado" (afecta solo al uso directo de Claude en contratos con el Departamento de Defensa, no a todos los clientes que trabajen con ese departamento en otros ámbitos) y se comprometió a seguir proporcionando sus modelos al ejército, a coste nominal y con soporte técnico, durante todo el tiempo que dure la transición hacia otros sistemas.

Los argumentos de la demanda

La demanda presentada este lunes desarrolla ese argumento en términos jurídicos: la legislación invocada por el Pentágono para aplicar la designación (el artículo 10 USC 3252 del código federal) tiene un alcance limitado y está concebida para proteger la cadena de suministro del Gobierno, no para sancionar a un proveedor.

Además, la ley exige que el secretario de Defensa utilice "los medios menos restrictivos posibles" para proteger esa cadena.

Anthropic sostiene que la medida adoptada va mucho más allá de lo que la norma permite y pide al tribunal que la anule por considerarla "arbitraria" y contraria a la Constitución.

El Pentágono sigue usando la tecnología de Anthropic

Uno de los elementos más llamativos es que, pese a la designación y a la orden presidencial, la tecnología de Anthropic continúa empleándose dentro del Departamento de Defensa para analizar grandes volúmenes de datos de inteligencia y procesar información procedente de agencias estadounidenses, según The New York Times.

La medida ha tenido ya consecuencias económicas concretas para la empresa. Según la demanda, la designación está afectando a operaciones valoradas en "cientos de millones de dólares" a corto plazo y está dañando su reputación ante clientes privados.

Los inversores de la compañía, entre los que figuran Google y Amazon, se han apresurado a tratar de contener el daño, según ha informado la agencia Reuters.

OpenAI y el hueco que deja Anthropic

El conflicto se produce en un momento de intensa competencia por los contratos militares vinculados a la inteligencia artificial. Apenas horas después de que Hegseth anunciara la designación de Anthropic, OpenAI reveló un nuevo acuerdo para desplegar su tecnología en la red del Departamento de Defensa.

Su consejero delegado, Sam Altman, declaró que el Pentágono comparte los principios de OpenAI sobre supervisión humana de los sistemas de armas y se opone a la vigilancia masiva de ciudadanos, aunque la empresa ha optado por implementar esas garantías mediante salvaguardas técnicas en lugar de restricciones contractuales explícitas.

La empresa de Elon Musk, xAI, también ha firmado acuerdos con el Departamento de Defensa en las últimas semanas. Sin embargo, según informó en su momento The Wall Street Journal, varios altos funcionarios de la administración han expresado dudas sobre la idoneidad de Grok, la inteligencia artificial de Musk integrada en la red social X, por ser "demasiado susceptible a la manipulación o a la corrupción por datos erróneos o sesgados".

El precedente que nadie quería fijar

Lo que está en juego es la primera batalla abierta sobre quién tiene la última palabra en el diseño ético de los sistemas de inteligencia artificial cuando estos se integran en el aparato de seguridad del Estado.

Si Anthropic pierde en los tribunales o acaba cediendo, quedará establecido el precedente de que una empresa puede ser sancionada por mantener restricciones de uso sobre su propia tecnología. Si el tribunal le da la razón, quedará fijado otro precedente, igualmente relevante: que la Constitución americana también protege las decisiones éticas de las empresas frente a la presión del poder ejecutivo.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último