4 puntos por GN⁺ 2026-02-05 | 1 comentarios | Compartir por WhatsApp
  • La velocidad de procesamiento de los modelos GPT-5.2 y GPT-5.2-Codex mejoró un 40% frente a la anterior
  • Se optimizó la pila de razonamiento para todos los usuarios de la API
  • Es el mismo modelo y los mismos pesos, pero con menor latencia

1 comentarios

 
GN⁺ 2026-02-05
Opiniones en Hacker News
  • Durante el último mes, OpenAI lanzó varias funciones para los usuarios de Codex

    • soporte para subagents
    • interfaz multi-agent mejorada (app de Codex)
    • velocidad de razonamiento 40% más rápida
      Solo con las dos primeras funciones ya se siente como si la productividad se hubiera triplicado. Tengo muchas ganas de ver esta actualización
    • Me pregunto cómo hacen funcionar los subagents
    • Esta es una función solo para API
    • Si pruebas Claude, el rendimiento mejora a nivel x². OpenAI probablemente también debe estar sintiendo presión
  • Durante el fin de semana probé el mismo prompt en GPT-5.2, Gemini 3 y Grok
    Gemini 3 y Grok terminaron en menos de 2 minutos en “thinking mode”, pero GPT-5.2 se quedó estancado durante 6 minutos

  • Hace poco, al parecer roon notó que las cuentas de empleados son mucho más rápidas que las de usuarios normales
    Así que se dio cuenta de que pueden ejecutar las llamadas a la API interna de forma más eficiente que para los usuarios comunes
    Al final, los usuarios normales terminan siendo atendidos solo con la capacidad que sobra
    Artículo relacionado: Choose Your Fighter (The Zvi)

  • En mi opinión, OpenAI tiene la costumbre de bajar intencionalmente la calidad después de lanzar un modelo
    La versión web de ChatGPT 5.2 al principio era mucho mejor, pero después de 1 o 2 semanas la calidad cayó de repente
    Parecía una estrategia para engañar a la prensa y a los benchmarks
    Para aumentar la velocidad, basta con reducir la intensidad del razonamiento, así que también cuesta creer eso de la mejora del 40%
    Podría ser otra ‘jugada’ como darle al usuario de ChatGPT Plus un modelo Pro al inicio y luego cambiarlo a Standard

    • Entiendo el escepticismo, pero nosotros no hacemos ese tipo de trampas
      Mantenemos estable la calidad del modelo, e investigamos de inmediato cuando hay reportes de degradación de rendimiento
      Esta mejora de velocidad se debe a una reducción en el tiempo de procesamiento por token, y la calidad del modelo y los pesos siguen iguales
    • No es algo exclusivo de OpenAI. Anthropic también tiene casos parecidos
      Referencia: Claude Code Tracker (MarginLab)
    • Estaría bien crear un sitio de benchmarks diarios para Codex
    • También puedes volver a correr los benchmarks por tu cuenta
  • Lo interesante es que en Cerebras el costo de inferencia es mucho más alto, y aun así mantuvieron el mismo precio

    • Pero probablemente esto no sea Cerebras.
      Si hubiera sido Cerebras, el comportamiento del modelo habría cambiado y la velocidad habría sido unas 10 veces mayor
      Seguramente escribieron un kernel optimizado para la serie Blackwell
    • Casi seguro que no está corriendo en Cerebras
  • La velocidad siempre había sido la mayor queja, así que con esta mejora me dieron ganas de volver a usarlo

  • Me da curiosidad saber cómo lograron esta mejora de velocidad

  • En Reddit también hay muchas publicaciones diciendo que la calidad bajó

    • Pero en Reddit aparecen publicaciones así todos los días.
      En los subreddits de Claude pasa lo mismo, y casi no hay evidencia confiable