9 puntos por princox 2026-02-24 | 8 comentarios | Compartir por WhatsApp

Anthropic anunció oficialmente que tres empresas chinas de IA —DeepSeek, MiniMax y Moonshot AI— extrajeron de forma ilegal capacidades de Claude.

Escala del ataque
Las tres empresas crearon en total 24,000 cuentas falsas y generaron más de 16 millones de conversaciones con Claude, lo que constituye una violación evidente de los términos de servicio y de las restricciones regionales de acceso de Anthropic.

Las características por empresa fueron las siguientes. DeepSeek se concentró en obtener capacidades relacionadas con lógica básica y consultas sensibles a políticas mediante más de 150,000 conversaciones. MiniMax generó 13 millones de conversaciones, más del 80% del total, enfocándose en codificación agéntica, uso de herramientas y orquestación, y Anthropic detectó esto en tiempo real, identificándolo antes de que MiniMax lanzara su modelo. En particular, cuando Anthropic lanzó un nuevo modelo, MiniMax mostró gran agilidad al redirigir la mitad de su tráfico al nuevo modelo en menos de 24 horas.

Método del ataque
Como el acceso a Claude dentro de China está bloqueado por razones de seguridad nacional, lo evadieron mediante servicios proxy que operaban decenas de miles de cuentas falsas (arquitectura de “hydra cluster”). Hubo incluso un caso en el que una sola red proxy operó simultáneamente más de 20,000 cuentas falsas, y para dificultar la detección enviaban el tráfico mezclado con el de usuarios normales.

Respuesta de Anthropic
Construyó clasificadores como detección basada en comportamiento (behavioral fingerprinting) y detección de patrones de extracción de chain-of-thought, y está compartiendo indicadores técnicos con otras empresas de IA, proveedores de nube y autoridades relacionadas. Además, reforzó la verificación en rutas frecuentemente explotadas para crear cuentas falsas, como cuentas educativas y cuentas para startups.

Perspectiva de seguridad nacional
Anthropic definió esto no como una simple violación de términos, sino como una amenaza a la seguridad nacional. Sostiene que los modelos destilados ilegalmente tienen una alta probabilidad de eliminar salvaguardas como la prevención del desarrollo de armas bioquímicas y el bloqueo de ciberataques, lo que inutiliza la política de control de exportaciones de IA de Estados Unidos. Afirmó que “ninguna empresa puede resolver esto por sí sola” y pidió una respuesta conjunta de la industria, los proveedores de nube y los responsables de políticas públicas.
Previamente, OpenAI también había informado al Congreso sobre una conducta similar por parte de DeepSeek, por lo que parece que comenzará en serio una discusión sobre una respuesta coordinada en toda la industria de IA de Estados Unidos.

8 comentarios

 
mammal 2026-02-24

OpenAI y Anthropic dan bastante pena: usan tecnología/investigación base que hizo Google y datasets pirateados, pero luego ves cómo le hacen lobby al Congreso para ilegalizar los modelos open source, y de verdad muestran lo que es la codicia.

¿Cómo es que Google, que ya es big tech establecida, y las empresas chinas de IA son más activas publicando investigación? Es un absurdo total.

¿Quién se supone que está desarrollando tecnología por el bien de la humanidad...? Es hipócrita y engañoso.

 
dicebattle 2026-02-25

Estoy de acuerdo. Especialmente Anthropic: últimamente de verdad cada movimiento que hace se ve bastante penoso. Siento que salieron unos tipos todavía peores que Google.

 
mammal 2026-02-24

Como entre ellos mismos están en esto, deja muy claro que todo ese asunto de la seguridad nacional al final no pasa de ser puro encuadre...

 
princox 2026-02-24

Tal vez sea porque duele perder lo que uno mismo construyó, y lo que otros ya hicieron parece poca cosa.
Da la impresión de que ya pasó la época de competir con justicia...

Gente que ni siquiera cuestiona el delito de haber robado...

 
savvykang 2026-02-25

https://cnbc.com/2026/02/…
Si se lo vendieron al Departamento de Defensa de su propio país y recién ahora lo cuestionan, me parece que la cláusula de oponerse al uso con fines militares es solo un pretexto y no tiene ninguna coherencia. Son un grupo que muestra una cara por fuera y otra por dentro. Es como ver a alguien que dice que no le interesa el dinero, pero está obsesionado con él.

 
princox 2026-02-24

Pensándolo bien, la mayoría de los LLM ya están hechos con textos y datos que otras personas escribieron antes...
¿Hasta dónde se puede considerar piratería?

 
xguru 2026-02-24

Como era de esperarse, el ocioso de Elon Musk también metió su cucharada. https://x.com/elonmusk/status/2026052687423562228

"Anthropic es culpable de haber robado datos de entrenamiento a gran escala, y debería haber pagado miles de millones de dólares en compensación por ese robo. Esto es un hecho indiscutible."

 
princox 2026-02-24

Da la impresión de que primero entrenan el modelo de forma ilegal y luego llegan a un acuerdo por una suma pequeña..