Anthropic denuncia ataques a gran escala de Claude por DeepSeek y otros rivales chinos de IA
La compañía dice que 16 millones de exchanges a través de 24,000 cuentas fraudulentas apuntaron a capacidades de razonamiento, codificación y uso de herramientas.
Conclusiones Clave
- Anthropic acusa a DeepSeek de China de ataques a gran escala al modelo de IA Claude.
- Los ataques involucraron 24,000 cuentas fraudulentas y 16 millones de interacciones con Claude.
Compartir este artículo
Anthropic dijo que ha identificado campañas a gran escala por parte de DeepSeek, Moonshot AI y MiniMax para extraer capacidades de sus modelos Claude de manera ilícita.
La compañía informó que los tres laboratorios generaron más de 16 millones de exchanges con Claude a través de aproximadamente 24,000 cuentas fraudulentas, violando los términos de servicio y las restricciones de acceso regional. Anthropic atribuyó las campañas usando correlaciones IP, metadatos, indicadores de infraestructura y corroboración de socios industriales.
Según Anthropic, los laboratorios utilizaron «distillation», un método que entrena un modelo más pequeño con las salidas de uno más capaz. Aunque es ampliamente utilizado internamente por laboratorios pioneros para crear versiones más ligeras de sus propios sistemas, Anthropic dijo que la técnica se desplegó aquí para replicar las capacidades de razonamiento, codificación y uso de herramientas de Claude a gran escala.
DeepSeek supuestamente realizó más de 150,000 exchanges centrados en tareas de razonamiento y en elicitar explicaciones detalladas paso a paso para generar datos de entrenamiento. Moonshot llevó a cabo más de 3.4 millones de exchanges apuntando al razonamiento agente, codificación y uso de computadoras.
MiniMax representó más de 13 millones de exchanges, con Anthropic detectando la actividad mientras ocurría y observando cambios de tráfico tras nuevas liberaciones de modelos.
Anthropic advirtió que los modelos construidos a través de distillation ilícita podrían carecer de salvaguardias de seguridad diseñadas para prevenir el mal uso en áreas como operaciones cibernéticas o amenazas biológicas. La empresa argumentó que dicha actividad podría socavar los controles de exportación de EEUU al permitir que laboratorios extranjeros repliquen capacidades destinadas a ser restringidas.
Para contrarrestar las campañas, Anthropic dijo que ha desplegado nuevos sistemas de detección de comportamiento, fortalecido la verificación de cuentas, compartido inteligencia con colegas de la industria y autoridades, y está desarrollando salvaguardias a nivel de producto y API para reducir la efectividad de distillation sin degradar el servicio para usuarios legítimos.
La compañía dijo que abordar distillation a gran escala requerirá una acción coordinada entre laboratorios de IA, proveedores de nube y formuladores de políticas.
A medida que se intensifica la rivalidad entre EEUU y China en IA, las tácticas de destilación se vuelven más prevalentes, permitiendo a laboratorios chinos explotar innovaciones estadounidenses mediante consultas extensivas a modelos avanzados como Claude y ChatGPT. Las implicaciones éticas del uso de la IA, especialmente para fines militares, han atraído escrutinio en medio de compromisos reportados del Pentágono que plantean preguntas sobre la seguridad y el control en el desarrollo de la IA. Este incidente subraya aún más la necesidad de medidas protectoras mejoradas más allá de las simples restricciones de exportación de hardware, ya que las preocupaciones sobre el cumplimiento y la seguridad continúan aumentando.
Esta información es proporcionada con el propósito de informar sobre incidentes relevantes y no implica una aprobación de las prácticas involucradas.
