El camino de DeepSeek hacia el open source de su motor de inferencia
(github.com/deepseek-ai)- El equipo de DeepSeek dio a conocer su plan para devolver a la comunidad open source su motor interno de inferencia (DeepSeek Inference Engine)
- El motor de inferencia actual está basado en vLLM, y ante el aumento de la demanda de despliegue de los modelos DeepSeek-V3 y R1, están considerando compartirlo
- La publicación completa es difícil debido al código existente, las dependencias de infraestructura y la carga de mantenimiento, por lo que cambiarán de dirección hacia una contribución modular y por funcionalidades
- En adelante, planean colaborar estrechamente con la comunidad open source para compartir optimizaciones de rendimiento y funciones reutilizables
- DeepSeek actuará de forma proactiva en la optimización de inferencia y en la sincronización del soporte Day-0 con la comunidad al lanzar modelos
El camino de DeepSeek hacia el open source de su motor de inferencia
Reacción a Open Source Week y contribuciones posteriores
- En la reciente Open Source Week, publicaron varias bibliotecas como open source
- Con una respuesta positiva de la comunidad, se dieron activamente colaboraciones, debates y correcciones de bugs
- A partir de esto, decidieron compartir como open source el motor interno de inferencia de DeepSeek
Tecnología base
- El framework de entrenamiento de DeepSeek está basado en PyTorch
- El motor de inferencia fue desarrollado a partir de un fork temprano del proyecto vLLM e incluye muchas personalizaciones especializadas para los modelos de DeepSeek
Restricciones prácticas para liberar todo el proyecto como open source
- Diferencias en el codebase: comenzó a partir de un fork de vLLM de hace más de un año; aunque la estructura es parecida, ha cambiado de forma considerable
- Dependencias de infraestructura interna: está fuertemente acoplado a la infraestructura propia de DeepSeek, como herramientas de gestión de clústeres, lo que dificulta su uso externo
- Falta de recursos de mantenimiento: como equipo de investigación pequeño, no cuentan con capacidad suficiente para gestionar de forma continua un proyecto open source de gran escala
Alternativa: colaboración con proyectos open source existentes
En adelante, planean contribuir en la siguiente dirección:
- Extracción de funciones modulares: separar componentes reutilizables en bibliotecas independientes para contribuirlos
- Compartir optimizaciones de rendimiento: reflejar en proyectos open source existentes las mejoras de rendimiento y las ideas de diseño de su implementación interna
Agradecimiento a la comunidad y visión a futuro
- Sin la existencia de la comunidad open source, no habría sido posible avanzar en el desarrollo de AGI
- Los sistemas operativos, lenguajes, frameworks de ML y motores de inferencia: la base de la innovación en IA es el ecosistema open source
- DeepSeek seguirá esforzándose, en coordinación con la comunidad, para que los beneficios de la AGI puedan contribuir a toda la humanidad
> [!NOTE]
> Este texto es una guía sobre la estrategia para convertir en open source el codebase de DeepSeek Inference Engine.
> De cara a futuras publicaciones de modelos, DeepSeek planea seguir ampliando la colaboración con la comunidad open source y con sus socios de hardware.
> En particular, antes del lanzamiento de modelos, compartirá y alineará de antemano las tecnologías relacionadas con la inferencia para coordinar el ecosistema y hacer posible el soporte SOTA desde el Day-0 en diversos entornos de hardware.
1 comentarios
Opiniones de Hacker News
En marzo, vLLM aplicó mejoras del artículo de DeepSeek, y el rendimiento de DeepSeek en vLLM v0.7.3 mejoró más de 3 veces
Coincido con el punto de bifurcación del codebase
La motivación de las empresas de IA comerciales para compartir resultados de investigación y know-how
"Hay cosas interesantes para la comunidad open source, pero ejecutarlas fuera de la empresa requiere mucha limpieza, y no hay personal para mantenerlas adecuadamente después del lanzamiento"
He visto buen trabajo de ingeniería por parte de DeepSeek
Me pregunto si es una estrategia de China lanzar en masa herramientas, modelos, etc. de IA open source para responder al dominio de EE. UU.
tl;dr: "el fork de vLLM se volvió imposible de mantener, así que ahora van a reconstruirlo públicamente"
Se siente como una forma de implementar censura