18 puntos por princox 2026-03-10 | 7 comentarios | Compartir por WhatsApp

Recientemente apareció una publicación interesante en r/codex.
Un usuario comentó que estaba usando GPT-5.4 en ChatGPT Pro + Codex, pero que solo le aparecía un contexto de 258K.
“Escuché que GPT-5.4 tiene contexto de 1M, ¿por qué solo me salen 258K?”
De hecho, al revisarlo en Codex CLI o en el IDE, en algunos casos el contexto predeterminado aparece como de alrededor de 258K.

La solución que compartieron en los comentarios fue agregar manualmente la configuración en config.

Ejemplo:

model_context_window=800000
model_auto_compact_token_limit=700000

Si agregas esto a config.toml, varias personas comentaron que pudieron ampliar el contexto utilizable hasta alrededor de 800K.

Algunos puntos importantes:
• Se sabe que GPT-5.4 admite hasta aproximadamente 1M tokens de contexto
• Pero en el entorno de Codex, en algunos casos la configuración predeterminada arranca limitada a unos 258K
• Si ajustas los valores del config, se puede usar un contexto más grande

Además, algunos usuarios también señalaron que si lo configuras demasiado cerca del máximo podría haber una caída de rendimiento, así que conviene dejar cierto margen.

En lo personal, lo que me pareció interesante

A medida que las herramientas de IA se vuelven más complejas,
cada vez hay más casos en los que “las especificaciones del modelo = la configuración predeterminada real” no se cumple.

Sobre todo en entornos como agentic coding / Codex, parece que en bastantes casos hay que tocar la configuración manualmente para sacarles el verdadero rendimiento.

¿Alguien ha usado realmente long context (500K~1M) en Codex o en CLI?
También me da curiosidad si en un workflow de desarrollo real la diferencia se siente mucho.

7 comentarios

 
gmlwo530 15 일 전

Hay un problema al usar model_context_window=800000: a partir del punto en que se consume el 50% del contexto, las respuestas a las preguntas terminan desarrollándose como respuestas a preguntas anteriores. Ténganlo en cuenta.

 
ujinyang 2026-03-10

Dicen que si aumenta por encima de esa cifra, el precio por token se duplica, así que les conviene verificarlo.

 
apkas 2026-03-10

Lo probé, y aunque el rendimiento de GPT-5.4 en sí me deja muy satisfecho, a veces no genera una respuesta al mensaje inmediatamente anterior sino a uno más viejo, así que no es del todo estable. Además, también hay reportes de que al usar long context su desempeño en la tarea de needle in the haystack cae por debajo del 50%, así que no diría que lo recomiendo especialmente. Aunque no sé si la tarea de needle in the haystack en sí sea un benchmark adecuado para medir el rendimiento de long-context. En fin, con Codex la compaction no tarda mucho y, después de compactar, tampoco se le suele olvidar bien el contexto, así que al usarlo así nomás no me resultó particularmente incómodo.

 
sea715 2026-03-10

Si hay un harness adecuado, aun así no parece nada mal. Como hace menos compactación en sí, también se reduce el problema de pérdida intermedia...

 
mwma91 2026-03-13

Ni siquiera sabía que era posible usar un contexto de 1M.

 
princox 2026-03-10

Confirmé que también se aplica tal cual a la app de Codex para macOS.

 
click 2026-03-10

Ah... con razón yo también pensaba que la ventana de contexto era demasiado pequeña, resulta que había que configurarla aparte.