Renovación de vLLM Recipes: configuración de combinaciones modelo+hardware con un clic
(recipes.vllm.ai)recipes.vllm.ai fue renovado a fondo. Ahora puedes obtener de forma interactiva la respuesta a: “¿cómo ejecuto el modelo X en el hardware Y con vLLM?”.
Cambios principales
URL espejo de HuggingFace — cambia huggingface.co por recipes.vllm.ai y entrarás directamente a la receta de ese modelo (ejemplo: recipes.vllm.ai/Qwen/Qwen3.6-35B-A3B)
Constructor interactivo de comandos — elige el hardware, la variante y la estrategia de paralelización para generar al instante un comando vllm serve listo para usar
Hardware enchufable — cambio con un clic entre NVIDIA (Hopper/Blackwell) y AMD (MI300X/MI355X), con aplicación automática de flags y variables de entorno
API JSON — todas las recetas están disponibles en la ruta /.json, por lo que los agentes y herramientas de automatización pueden consumirlas directamente
Contribuir recetas con habilidades de agente
El repositorio incluye habilidades de agente, así que puedes contribuir nuevas recetas de extremo a extremo. El agente te guía desde la ejecución de benchmarks hasta la generación de la receta y el envío del PR.
→ github.com/vllm-project/recipes
4 comentarios
¿Será que dentro de poco se podrá desplegar en cualquier dispositivo con un solo clic...? qué fuerte
Parece que ahora ya van a aparecer todos los orientados a servicios.
Parece que todavía faltan muchos modelos.
Así que parece una buena oportunidad para contribuir.