Inteligencia Artificial

EEUU designa a Anthropic como riesgo para su cadena de suministro y la empresa acudirá a los tribunales

La 'startup' de inteligencia artificial detrás del chatbot Claude rechaza la decisión del Departamento de Guerra y asegura que la medida tiene un alcance limitado.

Pentágono
Pentágono

La empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, impugnará en los tribunales la decisión del Departamento de Guerra de EEUU de designarla como riesgo para la cadena de suministro. La compañía sostiene que la medida no es legalmente válida y que su impacto real es limitado.

La disputa abre un nuevo frente en la relación entre el Gobierno de EEUU y las empresas de inteligencia artificial, en un contexto de creciente vigilancia sobre el papel de estas tecnologías en la seguridad nacional.

Anthropic confirma que ha sido designada como riesgo para la cadena de suministro del Departamento de Guerra de EEUU y anuncia acciones legales contra la decisión

Anthropic recurrirá la designación del Departamento de Guerra

La empresa estadounidense Anthropic, dirigida por Dario Amodei, ha confirmado que el pasado miércoles recibió una carta del Departamento de Guerra de EEUU en la que se formaliza su designación como “riesgo para la cadena de suministro” del Gobierno estadounidense.

Tras recibir la notificación, la compañía ha asegurado que la decisión carece de base legal y ha anunciado que la recurrirá ante los tribunales.

El propio Amodei afirmó que la empresa no ve otra alternativa que iniciar acciones judiciales. “No creemos que esta acción sea legalmente válida y no vemos otra opción que impugnarla en los tribunales”, señaló el consejero delegado de Anthropic.

La empresa sostiene que la designación no afecta a la mayoría de sus clientes ni limita el uso del chatbot Claude fuera de contratos directos con el Departamento de Guerra

Alcance limitado de la medida según la compañía

Anthropic ha insistido en que la designación no supone una restricción general al uso de su tecnología.

Según la empresa, la medida únicamente afecta a contratos directos con el Departamento de Guerra y no al uso de Claude por parte de clientes que trabajen con el Gobierno estadounidense en otros ámbitos.

La compañía argumenta que el propio marco legal que sustenta la decisión —la normativa 10 USC 3252— tiene un alcance limitado.

Aspecto de la medida Impacto según Anthropic
Designación como riesgo de suministro Aplicada por el Departamento de Guerra
Alcance de la medida Solo contratos directos con Defensa
Uso del chatbot Claude No restringido para clientes en general
Relaciones comerciales No afectadas fuera de esos contratos

Anthropic defiende que el objetivo de la normativa es proteger al Gobierno estadounidense, no sancionar a los proveedores tecnológicos

Debate sobre el papel de la IA en defensa

El CEO de Anthropic también subrayó que la empresa no debe participar en decisiones operativas militares, defendiendo que esa responsabilidad corresponde exclusivamente a las fuerzas armadas.

Asimismo, reiteró que las preocupaciones de la compañía en materia de seguridad se centran en limitar el desarrollo de armas totalmente autónomas y evitar la vigilancia doméstica masiva mediante inteligencia artificial.

El caso refleja el creciente escrutinio del Gobierno estadounidense sobre las empresas de IA, especialmente en relación con su posible papel en ámbitos estratégicos como defensa, seguridad y vigilancia.

Más información

El organismo resalta el aumento de licencias femeninas, la profesionalización de ligas y nuevas medidas de igualdad con motivo del 8 de marzo.
La filial estadounidense del gigante japonés reclama el reembolso de gravámenes que formaron parte de una política comercial que llegó a recaudar más de 184.000 millones de euros.
El presidente estadounidense asegura que compañías como Boeing, Lockheed Martin o Northrop Grumman han acordado acelerar la fabricación de armamento avanzado tras una reunión en la Casa Blanca.

Lo más Visto