- El informe de evaluación de los modelos de IA de DeepSeek publicado por NIST en septiembre de 2025 es un documento con fines políticos, no una evaluación técnica neutral, y busca frenar la IA open source china sin presentar evidencia de amenazas de seguridad reales
- El informe no presenta ninguna evidencia de puertas traseras, spyware ni filtración de datos en los modelos de DeepSeek; solo señala que tienen menos ajuste de seguridad, son más fáciles de vulnerar con jailbreak y reflejan perspectivas del gobierno chino
- DeepSeek, bajo licencia Apache 2.0, publicó por completo los pesos del modelo, la arquitectura y la metodología de entrenamiento, aportando enormemente a la investigación abierta en IA, pero el gobierno de EE. UU. la calificó como una “IA adversaria”
- NIST confunde deliberadamente la ejecución local con el uso por API y utiliza una metodología sesgada, omitiendo comparaciones con otros modelos open source o pruebas de sesgo en modelos estadounidenses
- El informe forma parte de una política industrial para contener a DeepSeek, que demostró la competitividad de la IA open source, y así proteger la posición monopólica de las empresas de IA de EE. UU., priorizando intereses comerciales y estratégicos por encima de la neutralidad científica
La verdadera naturaleza del informe de evaluación de DeepSeek de NIST
- El informe de NIST sobre DeepSeek del 30 de septiembre de 2025 es un documento de ataque político, no una evaluación técnica neutral
- No hay ninguna evidencia de puertas traseras, spyware ni filtración de datos
- Es un intento del gobierno de EE. UU. de obstaculizar la ciencia abierta, la investigación abierta y el open source usando miedo y desinformación
- Ataca, con política y mentiras, una contribución a la humanidad para proteger el poder corporativo y mantener el control
- Tras la publicación del informe hubo pánico en línea
- Se afirmó que los pesos de DeepSeek estaban comprometidos
- Se afirmó que China espía a través del modelo
- Se afirmó que la sola descarga representa un riesgo de seguridad
- Todas estas afirmaciones son falsas
Los verdaderos logros de DeepSeek
- Desarrollo de modelos de IA competitivos
- Alcanzó rendimiento de frontera con un presupuesto mucho menor que OpenAI o Anthropic
- No es perfecto, pero es un resultado impresionante para ese nivel de presupuesto
- Publicación completa bajo licencia Apache 2.0
- Pesos del modelo
- Arquitectura
- Metodología de entrenamiento
- Artículos de investigación
- Permitió que cualquiera reprodujera el trabajo y ejecutara modelos de escala de frontera en local
- Facilita recrear todo desde cero
- Una de las mayores contribuciones a la investigación abierta en IA de los últimos años
- La reacción del gobierno de EE. UU.: etiquetarla como “IA adversaria” e insinuar espionaje
La estrategia central de engaño de NIST
- Confusión deliberada de tres escenarios
- Escenario A: al usar la app/API de DeepSeek, los prompts se envían a servidores en China (un problema real de soberanía de datos)
- Escenario B: al descargar los pesos abiertos y ejecutar el modelo en local, no se envía ningún dato fuera del dispositivo
- Escenario C: al usar servicios de terceros confiables como OpenRouter, Fireworks o Chutes, la infraestructura y el control de privacidad dependen del proveedor de hosting
- NIST mete deliberadamente en el mismo saco estas situaciones completamente distintas
- Cuenta las descargas locales mientras advierte sobre un “riesgo para la seguridad nacional”
- Cualquiera con conocimientos técnicos básicos sabe que eso es engañoso
- Esa confusión sirve de base para el resto del encuadre engañoso del informe
Lo que NIST realmente encontró
- Lo que queda al quitar el lenguaje sensacionalista
- Los modelos de DeepSeek son más fáciles de vulnerar con jailbreak que los modelos estadounidenses con safety tuning
- A veces reflejan perspectivas del gobierno chino
- Tienen un rendimiento ligeramente inferior en ciertos benchmarks
- Se afirma que tienen un costo por token más alto (sin proporcionar metodología)
- Eso es todo
- No hay evidencia de comportamiento malicioso
- No hay evidencia de filtración de datos
- No hay evidencia de que el modelo actúe de forma maliciosa más allá de “responder a prompts de una manera que no nos gusta”
- Análisis del hallazgo sobre jailbreak
- Se debe a que DeepSeek invirtió menos en entrenamiento de seguridad (un tema de recursos)
- NIST no probó modelos estadounidenses antiguos para comparar
- Mientras tanto,
gpt-oss-120b de OpenAI es muy fácil de vulnerar con jailbreak
- Análisis del hallazgo sobre la “narrativa del Partido Comunista Chino”
- No sorprende que un modelo entrenado con datos chinos refleje perspectivas chinas
- Está sujeto a las leyes de censura de China
- Eso no es una vulnerabilidad de seguridad
Las comparaciones que NIST no hizo
- No compara con otros modelos abiertos
- ¿Dónde están Llama, Mistral y Falcon?
- Si los hubiera comparado, habría quedado claro que no es un problema de DeepSeek sino que, en general, los modelos abiertos tienen menos capas de seguridad que los modelos cerrados
- No compara con modelos estadounidenses tempranos
- ¿Qué tan vulnerables eran a jailbreak los GPT-3 de 2020?
- Esa comparación debilitaría la narrativa, por eso no se hace
- No prueba el sesgo estadounidense en modelos estadounidenses
- Parece que solo el sesgo chino se considera un riesgo de seguridad
- Usa benchmarks privados
- Un “benchmark privado construido por CAISI” impide la reproducción o verificación
- Eso no es ciencia, es investigación de defensa de una postura
Lo que el informe realmente está diciendo
- Si lees entre líneas
- Los modelos de DeepSeek están menos pulidos: es lógico, porque se invirtió menos en su desarrollo y por eso tienen asperezas
- Los modelos chinos son lo suficientemente competitivos como para preocupar: si no fueran una amenaza al mercado, este informe no existiría
- EE. UU. teme perder su dominio en IA: fue encargado explícitamente bajo el “AI Action Plan” de Trump. La declaración del secretario de Comercio deja claro que esto es política industrial, no una evaluación neutral
La amenaza real (pista: no es contra ti)
- Lo que DeepSeek realmente amenazó: el monopolio
- El verdadero “crimen” de DeepSeek fue demostrar que el open source funciona
- Probó que se pueden construir modelos potentes sin miles de millones en venture capital ni APIs privadas
- Eso aterra a las empresas que venden acceso a la IA a precio premium
- Cuando DeepSeek dijo “aquí están los pesos, ejecútalos tú mismo”, atacó el foso económico del que dependen esas empresas
- Esa es la razón de la existencia del informe de NIST
- Porque DeepSeek probó que la apertura puede competir con los sistemas cerrados
- El establishment necesita frenarlo
La hipocresía
- Advertencias de NIST vs realidad
- NIST: advierte que los modelos de DeepSeek podrían responder a prompts maliciosos en entornos simulados
- Realidad: los modelos estadounidenses sí envían datos reales a servidores externos
- El caso de OpenAI
- ¿Recuerdas cuando ChatGPT usaba las conversaciones para entrenamiento?
- Solo agregó la opción de exclusión después de la reacción negativa
- Comparación
- Ejecutar pesos de DeepSeek en local = cero transferencia de datos
- Usar la API de OpenAI = transferencia continua de datos al servidor
- ¿Cuál de los dos es el riesgo de privacidad?
- El informe advierte sobre la “adopción de IA extranjera” mientras ignora que toda API en la nube, sea estadounidense o no, exige confiar en infraestructura ajena
- Los pesos abiertos en local son más auditables y más seguros que cualquier servicio en la nube
- Pero ese no es el mensaje. Porque esto nunca trató de seguridad. Se trata de controlar la narrativa
Traición al open source y a la ciencia abierta
- La comunidad open source construyó los cimientos de la IA moderna
- Linux, Python, PyTorch, Transformers
- Décadas de desarrollo colaborativo, compartido libremente
- DeepSeek participa de esa tradición
- Toma conocimiento abierto, construye algo impresionante y lo devuelve a la comunidad
- La reacción de la institución estadounidense: llamarlo una amenaza
- Imagina que China hubiera hecho esto cuando Meta lanzó Llama
- Si hubiera publicado un informe gubernamental diciendo que los pesos de Llama son una herramienta de vigilancia porque “son vulnerables a jailbreak”
- Lo habríamos llamado proteccionismo, paranoia tecnológica, un ataque a la investigación abierta
- Pero cuando lo hacemos nosotros? “Seguridad nacional”
- La investigación abierta debe ser universal
- No se puede defender la ciencia abierta solo cuando conviene
Una prueba que puedes hacer tú mismo
- No me creas a mí, no le creas a NIST, compruébalo tú mismo
- Descarga los pesos de DeepSeek
- Usa huggingface transformers, vLLM, LM Studio o llama.cpp para ejecutarlos en local
- Abre una herramienta de monitoreo de red
- Observa
- Exactamente cero paquetes salen hacia ningún lugar
- Los prompts se procesan por completo en el dispositivo
- La terrible “amenaza de seguridad” no hace más que multiplicaciones de matrices sin conectarse a nada
- Pregúntate: por qué el gobierno de EE. UU. miente sobre esto?
- La “amenaza de seguridad” no está en el modelo. Está en la política
De qué sí deberías preocuparte
- Existen preocupaciones legítimas
- Uso de la API de DeepSeek: si envías datos sensibles al servicio hospedado de DeepSeek, pasan por infraestructura china. Es el mismo problema real de soberanía de datos que existe al usar cualquier proveedor extranjero de nube
- Vulnerabilidad a jailbreak: si construyes aplicaciones en producción, debes probar vulnerabilidades en cualquier modelo e implementar salvaguardas a nivel de aplicación. No dependas solo de los guardrails del modelo. Además, usa en inferencia un modelo guardián (
LlamaGuard o Qwen3Guard, por ejemplo) para clasificar y filtrar tanto prompts como respuestas
- Sesgo y censura: todos los modelos reflejan sus datos de entrenamiento. Tenlo presente uses el modelo que uses
- Estos son desafíos de ingeniería
- No son una razón para evitar por completo los modelos open source (o chinos)
Lo que esto significa para el futuro de la IA
- Esto no se trata solo de DeepSeek
- Se trata de si la IA seguirá siendo abierta y auditable, o si quedará cercada por gobiernos y corporaciones
- Las preguntas
- ¿Vamos a permitir que “open source” se redefina como “abierto solo si es de EE. UU.”?
- ¿Vamos a exigir evidencia real para las afirmaciones de seguridad, o aceptar insinuaciones vagas?
- ¿La IA seguirá siendo un proyecto humano compartido, o se convertirá en un arma geopolítica?
- DeepSeek demostró que hay otro camino. Por eso había que desacreditarla
La opinión del autor
- Antecedentes del autor
- Ejecuta modelos open source en local
- Entrena sus propios modelos
- Cree en la alineación componible y en la libertad del usuario
- Considera que la IA debe ser una herramienta para los usuarios, no para corporaciones ni gobiernos
- Evaluación del informe de NIST
- No es una evaluación técnica neutral
- Es un documento de política diseñado para impedir la adopción de modelos chinos de IA y proteger los intereses comerciales y estratégicos de EE. UU.
- Postura sobre la promoción industrial del gobierno de EE. UU.
- No hay nada intrínsecamente malo en que el gobierno de EE. UU. promueva su industria
- Pero hay que llamarlo por lo que es
- No hay que disfrazar el proteccionismo como investigación de seguridad
- No hay que fabricar amenazas
- No hay que mentirle al público sobre lo que muestra la evidencia
- La contribución de DeepSeek
- Nos dio un regalo valioso y valiente
- Los pesos son solo datos
safetensor
- Se quedan en el disco y funcionan según se les ordena
- No llaman a casa. No espían. No filtran datos
- Conclusión
- Si te preocupa, es porque no entiendes cómo funciona la inferencia local
- Si crees la propaganda del miedo, es porque te manipularon con éxito
- Nada de esto trata de seguridad. Trata de poder: de quién construye, comparte y entiende las herramientas que dan forma al futuro
Conclusión
- El código y la investigación son open source y auditables. Todo lo demás es política
- Recomendación al lector
- Lee por ti mismo el informe de NIST y el código
- Busca evidencia real de código malicioso o funciones de vigilancia
- No la vas a encontrar, porque no existe
- Luego empieza a preguntar
- ¿Por qué te dicen que temas al open source cuando funciona demasiado bien?
1 comentarios
Opinión de Hacker News
exfiltrationpara notar que el ensayo y el informe original de NIST no dicen lo mismo. Que una página clickbait reciba más atención que un informe técnico de 70 páginas refleja lo corta que se ha vuelto la capacidad de atención de la gente hoy en día.