GPT-5.2 y GPT-5.2-Codex ahora son 40% más rápidos
(twitter.com/OpenAIDevs)- La velocidad de procesamiento de los modelos GPT-5.2 y GPT-5.2-Codex mejoró un 40% frente a la anterior
- Se optimizó la pila de razonamiento para todos los usuarios de la API
- Es el mismo modelo y los mismos pesos, pero con menor latencia
1 comentarios
Opiniones en Hacker News
Durante el último mes, OpenAI lanzó varias funciones para los usuarios de Codex
Solo con las dos primeras funciones ya se siente como si la productividad se hubiera triplicado. Tengo muchas ganas de ver esta actualización
Durante el fin de semana probé el mismo prompt en GPT-5.2, Gemini 3 y Grok
Gemini 3 y Grok terminaron en menos de 2 minutos en “thinking mode”, pero GPT-5.2 se quedó estancado durante 6 minutos
Hace poco, al parecer roon notó que las cuentas de empleados son mucho más rápidas que las de usuarios normales
Así que se dio cuenta de que pueden ejecutar las llamadas a la API interna de forma más eficiente que para los usuarios comunes
Al final, los usuarios normales terminan siendo atendidos solo con la capacidad que sobra
Artículo relacionado: Choose Your Fighter (The Zvi)
En mi opinión, OpenAI tiene la costumbre de bajar intencionalmente la calidad después de lanzar un modelo
La versión web de ChatGPT 5.2 al principio era mucho mejor, pero después de 1 o 2 semanas la calidad cayó de repente
Parecía una estrategia para engañar a la prensa y a los benchmarks
Para aumentar la velocidad, basta con reducir la intensidad del razonamiento, así que también cuesta creer eso de la mejora del 40%
Podría ser otra ‘jugada’ como darle al usuario de ChatGPT Plus un modelo Pro al inicio y luego cambiarlo a Standard
Mantenemos estable la calidad del modelo, e investigamos de inmediato cuando hay reportes de degradación de rendimiento
Esta mejora de velocidad se debe a una reducción en el tiempo de procesamiento por token, y la calidad del modelo y los pesos siguen iguales
Referencia: Claude Code Tracker (MarginLab)
Lo interesante es que en Cerebras el costo de inferencia es mucho más alto, y aun así mantuvieron el mismo precio
Si hubiera sido Cerebras, el comportamiento del modelo habría cambiado y la velocidad habría sido unas 10 veces mayor
Seguramente escribieron un kernel optimizado para la serie Blackwell
La velocidad siempre había sido la mayor queja, así que con esta mejora me dieron ganas de volver a usarlo
Me da curiosidad saber cómo lograron esta mejora de velocidad
En Reddit también hay muchas publicaciones diciendo que la calidad bajó
En los subreddits de Claude pasa lo mismo, y casi no hay evidencia confiable