OpenAI publicó de forma sorpresiva la serie de modelos GPT-OSS (gpt-oss-120b / gpt-oss-20b) bajo licencia Apache 2.0. Es su primer modelo de pesos abiertos desde GPT-2, hace 6 años, y tiene el potencial de cambiar el panorama del mercado tanto en rendimiento como en eficiencia.
🧠 Características clave
- Modelo 20B: arquitectura Mixture of Experts (MoE)
• 4 expertos activados de 128 → mantiene el rendimiento mientras reduce el costo de inferencia
• Incluye FlashAttention, soporte para 128k tokens y YaRN - Modelo 20B: puede ejecutarse incluso en entornos con GPU de 16GB (incluido Apple Silicon)
📊 Principales resultados en benchmarks (basados en GPT-OSS-120B)
- MMLU: 90.0% (similar a o4-mini)
- Matemáticas AIME: 97.9% (nivel muy alto en matemáticas + herramientas)
- Codeforces Elo: 2622 (también está entre los mejores en programación)
- HealthBench: mejor rendimiento que GPT-4o
- MMMLU (14 idiomas): 81.3% → también destaca en razonamiento multilingüe
💡 Utilidad práctica y ecosistema
- El modelo 120B puede ejecutarse en una sola GPU H100 de 80GB
- El modelo 20B corre en tiempo real incluso en entornos de 16GB
- Compatible de inmediato con HuggingFace, vLLM, Ollama y más
🔐 Seguridad y responsabilidad
- Refuerzo de la consistencia del razonamiento basado en RL
- Introducción de Deliberative Alignment
- No genera salidas de alto riesgo incluso ante intentos de uso malicioso deliberado
Por un tiempo, probablemente se libren de las burlas de “ClosedAI”. Lo probé un momento y también maneja muy bien el coreano.
Aún no hay comentarios.