La disputa abre un nuevo frente en la relación entre el Gobierno de EEUU y las empresas de inteligencia artificial, en un contexto de creciente vigilancia sobre el papel de estas tecnologías en la seguridad nacional.
Anthropic confirma que ha sido designada como riesgo para la cadena de suministro del Departamento de Guerra de EEUU y anuncia acciones legales contra la decisión
Anthropic recurrirá la designación del Departamento de Guerra
La empresa estadounidense Anthropic, dirigida por Dario Amodei, ha confirmado que el pasado miércoles recibió una carta del Departamento de Guerra de EEUU en la que se formaliza su designación como “riesgo para la cadena de suministro” del Gobierno estadounidense.
Tras recibir la notificación, la compañía ha asegurado que la decisión carece de base legal y ha anunciado que la recurrirá ante los tribunales.
El propio Amodei afirmó que la empresa no ve otra alternativa que iniciar acciones judiciales. “No creemos que esta acción sea legalmente válida y no vemos otra opción que impugnarla en los tribunales”, señaló el consejero delegado de Anthropic.
La empresa sostiene que la designación no afecta a la mayoría de sus clientes ni limita el uso del chatbot Claude fuera de contratos directos con el Departamento de Guerra
Alcance limitado de la medida según la compañía
Anthropic ha insistido en que la designación no supone una restricción general al uso de su tecnología.
Según la empresa, la medida únicamente afecta a contratos directos con el Departamento de Guerra y no al uso de Claude por parte de clientes que trabajen con el Gobierno estadounidense en otros ámbitos.
La compañía argumenta que el propio marco legal que sustenta la decisión —la normativa 10 USC 3252— tiene un alcance limitado.
| Aspecto de la medida | Impacto según Anthropic |
|---|---|
| Designación como riesgo de suministro | Aplicada por el Departamento de Guerra |
| Alcance de la medida | Solo contratos directos con Defensa |
| Uso del chatbot Claude | No restringido para clientes en general |
| Relaciones comerciales | No afectadas fuera de esos contratos |
Anthropic defiende que el objetivo de la normativa es proteger al Gobierno estadounidense, no sancionar a los proveedores tecnológicos
Debate sobre el papel de la IA en defensa
El CEO de Anthropic también subrayó que la empresa no debe participar en decisiones operativas militares, defendiendo que esa responsabilidad corresponde exclusivamente a las fuerzas armadas.
Asimismo, reiteró que las preocupaciones de la compañía en materia de seguridad se centran en limitar el desarrollo de armas totalmente autónomas y evitar la vigilancia doméstica masiva mediante inteligencia artificial.
El caso refleja el creciente escrutinio del Gobierno estadounidense sobre las empresas de IA, especialmente en relación con su posible papel en ámbitos estratégicos como defensa, seguridad y vigilancia.






