31 puntos por haebom 2025-08-06 | Aún no hay comentarios. | Compartir por WhatsApp

OpenAI publicó de forma sorpresiva la serie de modelos GPT-OSS (gpt-oss-120b / gpt-oss-20b) bajo licencia Apache 2.0. Es su primer modelo de pesos abiertos desde GPT-2, hace 6 años, y tiene el potencial de cambiar el panorama del mercado tanto en rendimiento como en eficiencia.

🧠 Características clave

  • Modelo 20B: arquitectura Mixture of Experts (MoE)
     • 4 expertos activados de 128 → mantiene el rendimiento mientras reduce el costo de inferencia
     • Incluye FlashAttention, soporte para 128k tokens y YaRN
  • Modelo 20B: puede ejecutarse incluso en entornos con GPU de 16GB (incluido Apple Silicon)

📊 Principales resultados en benchmarks (basados en GPT-OSS-120B)

  • MMLU: 90.0% (similar a o4-mini)
  • Matemáticas AIME: 97.9% (nivel muy alto en matemáticas + herramientas)
  • Codeforces Elo: 2622 (también está entre los mejores en programación)
  • HealthBench: mejor rendimiento que GPT-4o
  • MMMLU (14 idiomas): 81.3% → también destaca en razonamiento multilingüe

💡 Utilidad práctica y ecosistema

  • El modelo 120B puede ejecutarse en una sola GPU H100 de 80GB
  • El modelo 20B corre en tiempo real incluso en entornos de 16GB
  • Compatible de inmediato con HuggingFace, vLLM, Ollama y más

🔐 Seguridad y responsabilidad

  • Refuerzo de la consistencia del razonamiento basado en RL
  • Introducción de Deliberative Alignment
  • No genera salidas de alto riesgo incluso ante intentos de uso malicioso deliberado

Por un tiempo, probablemente se libren de las burlas de “ClosedAI”. Lo probé un momento y también maneja muy bien el coreano.

https://huggingface.co/openai/gpt-oss-120b

Aún no hay comentarios.

Aún no hay comentarios.