S O Y R E P O R T E R O

Anthropic acusa a tres laboratorios chinos de extraer capacidades de Claude con cuentas falsas

Anthropic denuncia 24.000 cuentas falsas y 16 millones de interacciones para destilar Claude y reforzar modelos rivales.

Publicado por: admin (soyreportero)

2026/02/24 | 05:50

Calificación

0 / 5 (0 votos)

Reportes

0

Anthropic acusa a tres laboratorios chinos de extraer capacidades de Claude con cuentas falsas

Fuente: https://images.pexels.com/photos/18475682/pexels-photo-18475682.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

Anthropic elevó la tensión en la carrera global por la inteligencia artificial con una acusación concreta: tres compañías chinas —DeepSeek, Moonshot AI y MiniMax— habrían montado una operación de más de 24.000 cuentas falsas para interactuar con Claude y usar esas conversaciones como “material de entrenamiento” para mejorar sus propios modelos. Según la empresa, el volumen total superó los 16 millones de intercambios, una escala que, en su lectura, no se logra sin acceso a capacidad de cómputo avanzada.

El mecanismo señalado es la “destilación”, una técnica habitual en el sector para crear versiones más pequeñas y baratas de un modelo a partir de uno más grande. El problema, sostiene Anthropic, aparece cuando un competidor la usa para “copiar los deberes”: extraer comportamientos y habilidades diferenciadas de un sistema ajeno. En este caso, la compañía afirma que los laboratorios apuntaron a lo que considera el núcleo distintivo de Claude: razonamiento agentivo, uso de herramientas y programación.

Anthropic detalla que el alcance y el foco variaron por actor. En el caso de DeepSeek, la firma rastreó más de 150.000 intercambios que parecían orientados a mejorar lógica fundacional y alineamiento, en particular alrededor de alternativas “seguras ante censura” para consultas sensibles a políticas. Moonshot AI, por su parte, habría acumulado más de 3,4 millones de intercambios centrados en razonamiento agentivo y uso de herramientas, programación y análisis de datos, desarrollo de agentes de uso de computadora y visión por computadora. MiniMax sería el caso más voluminoso: 13 millones de intercambios dirigidos a programación agentiva, uso de herramientas y orquestación. Anthropic afirma incluso que pudo observar a MiniMax redirigiendo casi la mitad de su tráfico para “sifonear” capacidades del modelo más reciente de Claude en el momento de su lanzamiento.

Las acusaciones llegan en un momento políticamente delicado: el debate en Estados Unidos sobre cuán estrictos deben ser los controles de exportación de chips avanzados. Anthropic vincula ambos temas de forma directa. En su blog, sostiene que la escala de extracción realizada “requiere acceso a chips avanzados” y que, por lo tanto, estos episodios refuerzan el argumento a favor de limitar exportaciones: restringir chips reduce tanto el entrenamiento directo como la destilación ilícita a gran escala. El contexto inmediato incluye una decisión reciente de la administración Trump de permitir formalmente que empresas estadounidenses como Nvidia exporten chips avanzados de IA (como el H200) a China, una flexibilización que críticos consideran riesgosa en plena competencia por el liderazgo en IA.

La discusión no es solo comercial. Anthropic advierte que la destilación ilícita puede erosionar salvaguardas diseñadas para impedir usos peligrosos, desde bioweaponización hasta ciberataques. Modelos construidos a partir de extracción, argumenta, podrían no conservar esas protecciones, facilitando la proliferación de capacidades riesgosas. También menciona el uso potencial de IA de frontera por gobiernos autoritarios en operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva, un riesgo que se amplifica si esos modelos terminan open source.

En paralelo, el tema ya venía escalando en Washington: OpenAI envió este mes un memo a legisladores de la Cámara acusando a DeepSeek de usar destilación para imitar productos de la compañía. DeepSeek, además, lleva un año en el centro de atención desde el lanzamiento de su modelo abierto R1, que casi igualó el rendimiento de laboratorios estadounidenses a una fracción del costo. Y, según reportes citados en el mismo contexto, se espera que DeepSeek publique pronto DeepSeek V4, un modelo que podría superar a Claude y ChatGPT en tareas de programación.

Anthropic afirma que seguirá invirtiendo en defensas para que estos ataques sean más difíciles de ejecutar y más fáciles de identificar, pero pide algo más amplio: una respuesta coordinada entre industria, proveedores de nube y responsables de política pública. Por ahora, TechCrunch informó que contactó a DeepSeek, MiniMax y Moonshot para obtener comentarios sobre las acusaciones.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.