La acusación se produce en un contexto de fuerte competencia entre EEUU y China por el liderazgo en IA, donde el acceso a modelos avanzados y a datos de entrenamiento de alta calidad se ha convertido en un elemento estratégico.
Anthropic cifra en más de 16 millones las interacciones con Claude atribuidas a cuentas fraudulentas utilizadas para entrenar modelos rivales
Antes de entrar en el detalle técnico, la empresa sitúa estos hechos dentro de una práctica cada vez más extendida en el sector: la extracción sistemática de respuestas de modelos avanzados para reproducir su rendimiento en versiones más pequeñas.
Ataques de destilación: cómo funciona la extracción de modelos
La destilación, también conocida como ataque de extracción de modelos (MEA), consiste en formular miles o millones de preguntas a un sistema avanzado para recopilar sus respuestas y emplearlas como base de entrenamiento de otro modelo más ligero.
Este procedimiento permite replicar patrones de razonamiento y capacidades técnicas “a una fracción del coste” que supondría desarrollar el sistema desde cero, según explica Anthropic.
La práctica es legítima cuando una empresa destila sus propios modelos para ofrecer versiones más rápidas y eficientes. El conflicto surge cuando se aplica sobre sistemas de terceros sin autorización.
La destilación permite reducir costes y tiempos de desarrollo reutilizando respuestas de modelos avanzados
Volumen atribuido a las empresas señaladas
Anthropic vincula la actividad a DeepSeek, Moonshot AI y MiniMax, que habrían utilizado redes proxy y estructuras de cuentas falsas para acceder al servicio, restringido comercialmente en China.
Según los datos facilitados por la compañía, el volumen estimado sería el siguiente:
| Empresa señalada | Conversaciones atribuidas | Objetivo descrito |
|---|---|---|
| DeepSeek | Más de 150.000 conversaciones con Claude | Extracción de razonamiento paso a paso |
| Moonshot AI | Más de 3,4 millones de conversaciones con Claude | Programación y uso de herramientas |
| MiniMax | Más de 13 millones de conversaciones con Claude | Capacidades de agente y orquestación |
Anthropic sostiene que parte de las solicitudes pedían al modelo detallar su razonamiento paso a paso, generando datos de entrenamiento de alto valor para sistemas competidores.
Las solicitudes incluían peticiones para explicar el razonamiento interno del modelo con el fin de replicarlo en otros sistemas
Impacto en la competencia y en la seguridad tecnológica
La compañía advierte de que modelos desarrollados mediante destilación no autorizada podrían carecer de determinadas salvaguardas de seguridad, lo que aumentaría riesgos en ámbitos como la ciberseguridad.
Otras tecnológicas han señalado que estos ataques no comprometen directamente la confidencialidad ni la integridad de los servicios para usuarios habituales, aunque sí afectan a la ventaja competitiva y a la protección de propiedad intelectual.
El anuncio público de Anthropic se produjo el 23 de febrero de 2026, en un momento de máxima rivalidad internacional por el liderazgo en Inteligencia Artificial.







