GPT-5.5
(openai.com)- Un modelo de tipo agente que planifica por sí mismo tareas complejas y combina herramientas para completarlas de principio a fin, abarcando desde escritura y depuración de código hasta investigación web, análisis de datos, creación de documentos y hojas de cálculo, y manejo de software
- Mantiene la misma per-token latency que GPT-5.4, pero mejora el rendimiento en coding, computer use, trabajo de conocimiento e investigación científica temprana, y además gana eficiencia al completar las mismas tareas de Codex con menos tokens
- En ingeniería de software registró 82.7% en Terminal-Bench 2.0, 73.1% en Expert-SWE y 58.6% en SWE-Bench Pro, mostrando fortalezas en implementación, refactorización, depuración, pruebas, verificación y mantenimiento del contexto en codebases grandes
- También se fortaleció el flujo de trabajo en tareas generales y de investigación, desde la creación de documentos, hojas de cálculo y diapositivas hasta computer use basado en manipulación de pantalla, análisis de datos en múltiples pasos, validación de hipótesis e interpretación de resultados, mientras que GPT-5.5 Pro apunta a una mayor precisión y cobertura
- Antes de su lanzamiento pasó por medidas de seguridad reforzadas y pruebas internas y externas, y se está desplegando de forma gradual en ChatGPT y Codex principalmente para usuarios de Plus, Pro, Business y Enterprise, en lo que parece ser una etapa que amplía el alcance del uso práctico de la IA
Resumen del modelo y alcance del despliegue
- GPT-5.5 se presenta como un modelo que entiende más rápido la intención, planifica por sí mismo tareas de varias etapas y usa herramientas para llevarlas hasta el final
- Puede realizar escritura y depuración de código, investigación web, análisis de datos, creación de documentos y hojas de cálculo, manejo de software y tareas que van pasando entre varias herramientas
- En lugar de gestionar cada paso al detalle, está diseñado para recibir de una sola vez tareas complejas y desordenadas, y continuar con la planificación, uso de herramientas, verificación y manejo de ambigüedades
- Se destaca especialmente la mejora en tareas de tipo agente, con un rendimiento sólido en coding, computer use, knowledge work e investigación científica temprana
- Aunque los modelos más grandes suelen volverse más lentos, en servicio real la per-token latency se mantiene al mismo nivel que GPT-5.4
- También mejora la eficiencia al completar las mismas tareas de Codex con menos tokens
- Antes del lanzamiento se reforzaron las medidas de seguridad, incorporando pruebas internas y externas de red team, evaluaciones adicionales sobre capacidades avanzadas de cybersecurity y biología, y retroalimentación de uso temprano de unos 200 socios de confianza
- Actualmente se está desplegando de forma gradual en ChatGPT y Codex para usuarios de Plus, Pro, Business y Enterprise, y GPT-5.5 Pro está disponible en ChatGPT para Pro, Business y Enterprise
- La API sigue ajustándose a requisitos de seguridad por separado, y GPT-5.5 y GPT-5.5 Pro se ofrecerán pronto
Ingeniería de software y coding de tipo agente
- OpenAI está construyendo una infraestructura de agentic AI, y durante el último año la IA ha acelerado fuertemente la ingeniería de software
- Con la llegada de GPT-5.5 a Codex y ChatGPT, ese cambio comienza a extenderse a la investigación científica y al trabajo general en computadora
- Según el Artificial Analysis Coding Index, ofrece inteligencia de primer nivel entre los frontier coding models competidores a la mitad del costo
- GPT-5.5 es presentado por OpenAI como su modelo de agentic coding más fuerte
- Obtuvo 82.7% en Terminal-Bench 2.0, que evalúa flujos de trabajo complejos de línea de comandos que requieren planificación, iteración y combinación de herramientas
- En SWE-Bench Pro obtuvo 58.6%, resolviendo de extremo a extremo más tareas reales de GitHub issues en una sola pasada que el modelo anterior
- También superó a GPT-5.4 en la evaluación interna Expert-SWE
- En las tres evaluaciones de coding logró mejores puntajes que GPT-5.4 usando menos tokens
- En Codex, sus fortalezas se notan en implementación, refactorización, depuración, pruebas y verificación
- Se vuelve más fuerte en comportamientos reales de ingeniería, como mantener el contexto de sistemas grandes, rastrear causas ambiguas de fallas, confirmar hipótesis con herramientas y reflejar cambios a lo largo de todo el codebase
Ejemplos de uso en coding y pruebas iniciales
- Se incluye como ejemplo un prompt para implementar una app con WebGL + Vite usando datos reales de Artemis II
- Renderiza las trayectorias de Orion, Moon y Sun usando datos vectoriales de NASA/JPL Horizons
- Aplica escala de visualización para mejorar la legibilidad
- Los primeros testers evaluaron que GPT-5.5 entiende mejor la estructura del sistema
- Identifica con más precisión qué falla, por qué falla, dónde debe ir la corrección y qué impacto tendrá en otras partes del codebase
- Dan Shipper probó si podía reconstruir una reformulación del mismo nivel después de revertir una falla tras el lanzamiento, y GPT-5.4 falló mientras GPT-5.5 tuvo éxito
- Pietro Schirano fusionó de una sola vez en unos 20 minutos una rama con cientos de cambios de frontend y refactorización en una rama principal que ya había cambiado mucho
- En pruebas con ingenieros senior, destacó en reasoning y autonomy frente a GPT-5.4 y Claude Opus 4.7
- Incluso sin prompts explícitos, detecta problemas con anticipación y prevé la necesidad de pruebas y revisión
- Cuando se le pidió rediseñar el sistema de comentarios de un editor colaborativo en markdown, entregó una pila de 12 diffs casi terminada
- Hizo falta menos trabajo de corrección en la implementación de lo esperado, y también aumentó la confianza en el plan frente a GPT-5.4
- En una cita de Michael Truell de Cursor, se destaca que puede mantener el trabajo por más tiempo y que se adapta mejor a tareas complejas y de larga ejecución sin detenerse antes de tiempo
Trabajo general de conocimiento y uso de la computadora
- Las fortalezas mostradas en coding también se trasladan tal cual al trabajo cotidiano en computadora
- Como entiende mejor la intención, realiza de forma más natural todo el proceso de buscar información, seleccionar lo importante, usar herramientas, verificar resultados y convertir materia prima en entregables útiles
- En Codex, GPT-5.5 es más fuerte que GPT-5.4 para crear documentos, hojas de cálculo y diapositivas
- Los alpha testers señalaron que supera al modelo anterior en tareas como investigación operativa, modelado en hojas de cálculo y convertir insumos de negocio desordenados en planes
- Combinado con la capacidad de computer use de Codex, puede ver la pantalla, hacer clic, escribir, navegar interfaces y pasar con precisión entre varias herramientas
- OpenAI ya lo está usando en flujos de trabajo reales dentro de la empresa, y actualmente más del 85% del personal usa Codex cada semana
- Se utiliza en ingeniería de software, finanzas, comunicaciones, marketing, ciencia de datos y gestión de producto
- El equipo de comunicaciones analizó datos de speaking requests de seis meses para crear un framework de puntuación y riesgo, y validó un agente de Slack que procesa automáticamente solicitudes de bajo riesgo y deja las de alto riesgo para revisión humana
- El equipo de Finance revisó 24,771 formularios fiscales K-1, un total de 71,637 páginas, y adelantó el proceso en dos semanas frente al año anterior mediante un flujo de trabajo que excluye información personal
- En el equipo de Go-to-Market se automatizó la generación de reportes semanales de negocio, lo que ahorra 5 a 10 horas por semana
GPT-5.5 Thinking y GPT-5.5 Pro en ChatGPT
- GPT-5.5 Thinking de ChatGPT fue diseñado para responder más rápido a problemas más difíciles, y permite realizar tareas complejas con mayor eficiencia gracias a respuestas más inteligentes y concisas
- es fuerte en coding, research, síntesis y análisis de información, y trabajo centrado en documentos, y resulta especialmente ventajoso al usar plugins
- GPT-5.5 Pro apunta a tareas más difíciles y a una mayor calidad, con menor latencia, lo que aumenta su aplicabilidad en entornos reales
- frente a GPT-5.4 Pro, sus respuestas son más integrales, mejor estructuradas, más precisas, más relevantes y más útiles
- destaca especialmente en business, legal, education y data science
- También presenta cifras altas en benchmarks cercanos al trabajo profesional
- registró GDPval 84.9%, OSWorld-Verified 78.7% y Tau2-bench Telecom 98.0%
- Tau2-bench Telecom se ejecutó sin prompt tuning
- también se presentaron FinanceAgent 60.0%, internal investment-banking modeling tasks 88.5% y OfficeQA Pro 54.1%
- En una cita de Justin Boitano de NVIDIA, se plantea un flujo en el que se ofrece sobre sistemas NVIDIA GB200 NVL72, se entregan capacidades end-to-end con prompts en lenguaje natural, se reduce el tiempo de depuración de días a horas, y experimentos que habrían tomado semanas pasan a realizarse de un día para otro
Flujo de trabajo de investigación científica y técnica
- GPT-5.5 también muestra mejoras de rendimiento en flujos de trabajo de investigación científica y técnica
- va más allá de responder preguntas difíciles, y sostiene mejor el ciclo que conecta exploración de ideas, recopilación de evidencia, validación de hipótesis, interpretación de resultados y decisión del siguiente experimento
- En GeneBench muestra una mejora clara frente a GPT-5.4
- es una nueva evaluación orientada al análisis de datos multietapa en genetics y quantitative biology
- aborda datos ambiguos o con errores, confounders ocultos, fallas de QC, e implementación e interpretación de técnicas estadísticas modernas
- las tareas aquí equivalen a proyectos de varios días incluso para expertos científicos
- En BixBench también logró un rendimiento líder entre los modelos con puntuaciones públicas
- se presenta como un benchmark que refleja bioinformatics y análisis de datos del mundo real
- muestra potencial de aceleración a nivel de co-scientist en la frontera de la biomedical research
- Una versión interna de GPT-5.5 y un custom harness también se usaron para encontrar una nueva prueba sobre Ramsey numbers
- enlace a la nueva prueba
- encontró una prueba sobre un hecho asintótico de larga data relacionado con off-diagonal Ramsey numbers en combinatorics, y luego se verificó con Lean
- contribuye no solo con código o explicaciones, sino también con razonamientos matemáticos útiles en áreas centrales de investigación
- Los testers iniciales usan GPT-5.5 Pro más como un socio de investigación que como un motor de respuestas aisladas
- revisa borradores de forma crítica en múltiples rondas, pone a prueba argumentos técnicos, propone análisis y trabaja con el contexto de código, notas y PDFs
- ayuda mejor con el flujo que va de la pregunta al experimento y al entregable
Casos de investigación
- Derya Unutmaz, de Jackson Laboratory for Genomic Medicine, analizó con GPT-5.5 Pro un dataset de expresión génica de 62 muestras y unas 28,000 genes
- generó un informe de investigación detallado que reveló no solo un resumen de resultados, sino también preguntas clave e insights
- ese trabajo tenía una escala que habría tomado meses a su equipo
- Bartosz Naskręcki, de Adam Mickiewicz University, creó con Codex una app de algebraic geometry en 11 minutos a partir de un solo prompt
- visualiza la intersección de dos quadratic surfaces y transforma la curva resultante en un modelo de Weierstrass
- después hizo más estable la visualización de singularities y añadió exact coefficients reutilizables para trabajo posterior
- Codex también ayudó a implementar visualizaciones matemáticas personalizadas y flujos de trabajo de computer algebra que antes requerían herramientas dedicadas
- Credit: Bartosz Naskręcki
- En una cita de Brandon White, de Axiom Bio, se indica que se infirieron enormes biochemical datasets para predecir human drug outcomes, y que apareció una mejora significativa de precisión en las evaluaciones más difíciles de drug discovery
Infraestructura de inferencia y optimización de rendimiento
- Para dar servicio a GPT-5.5 con una latencia similar a la de GPT-5.4, fue necesario rediseñar la inferencia como un sistema integrado y no como un conjunto de optimizaciones aisladas
- GPT-5.5 fue codiseñado, entrenado y servido tomando como base los sistemas NVIDIA GB200 y GB300 NVL72
- Codex y el propio GPT-5.5 contribuyeron directamente a alcanzar los objetivos de rendimiento
- Codex se usa para llevar ideas rápidamente a implementaciones medibles con benchmarks, esbozar enfoques, conectar experimentos e identificar optimizaciones que requieren una inversión más profunda
- GPT-5.5 ayudó a encontrar e implementar mejoras clave dentro del stack
- al final, el modelo también contribuyó a mejorar la infraestructura que lo sirve a sí mismo
- Como caso representativo de mejora, se presentan las heurísticas de load balancing y partitioning
- antes, las solicitudes sobre los accelerators se dividían en una cantidad fija de chunks para que solicitudes grandes y pequeñas corrieran en la misma GPU
- pero una cantidad estática de chunks no era óptima para todas las formas de tráfico
- Codex analizó durante semanas los patrones de production traffic y escribió un algoritmo heurístico personalizado para dividir y balancear las tareas de forma óptima
- con este trabajo, la token generation speed aumentó más de 20%
Ciberseguridad y salvaguardas
- Preparar para el mundo un modelo capaz de detectar vulnerabilidades y aplicar parches se parece más a un deporte de equipo, y para la próxima era de la defensa cibernética se necesita la resiliencia de todo el ecosistema
- Enlace relacionado: next era of cyber defense
- Las capacidades de cybersecurity de los modelos frontier siguen fortaleciéndose, y como esta capacidad se difundirá ampliamente, cobra importancia el camino para usarla en acelerar la defensa cibernética y fortalecer el ecosistema
- GPT-5.5 se presenta como un paso gradual pero importante hacia una IA que resuelva problemas difíciles como cybersecurity
- En GPT-5.2 se implementaron de forma preventiva cyber safeguards para limitar el posible uso malicioso en cyber
- En GPT-5.5 se implementaron clasificadores más estrictos frente al riesgo potencial en cyber, y al principio esto puede resultar molesto para algunos usuarios
- OpenAI ha tratado cybersecurity como una categoría independiente durante años dentro del Preparedness Framework, y ha ajustado de forma iterativa las medidas de mitigación conforme aumentaban las capacidades
- Se implementaron safeguards de nivel líder en la industria acordes con este nivel de capacidad en cyber
- En GPT-5.2 se introdujeron por primera vez safeguards específicos para cyber, y desde entonces se han probado, refinado y ampliado en cada despliegue
- En GPT-5.5 se reforzaron aún más las protecciones frente a actividades de alto riesgo, solicitudes sensibles de cyber y abuso repetido
- El acceso amplio fue posible gracias a inversiones en seguridad del modelo, uso autenticado y monitoreo de usos no permitidos
- Se desarrolló, probó y mejoró la robustez durante varios meses junto con expertos externos
- Se facilita que los desarrolladores protejan su código con mayor facilidad, mientras que se aplican controles más fuertes a flujos de trabajo de cyber que podrían facilitar daños a actores maliciosos
- También avanza la ampliación del acceso con fines defensivos
- A través de Trusted Access for Cyber se ofrece acceso a modelos cyber-permissive, y el punto de partida es Codex
- A usuarios verificados que cumplan ciertas trust signals se les ofrecen funciones avanzadas de cybersecurity de GPT-5.5 con menos restricciones
- Las organizaciones encargadas de la defensa de infraestructura crítica pueden solicitar acceso a modelos cyber-permissive como GPT-5.4-Cyber
- El objetivo es ofrecer a responsables de defensa verificados herramientas para trabajo legítimo de seguridad con menos fricción
- Enlace de solicitud: chatgpt.com/cyber
- También se incluye la colaboración con socios gubernamentales
- Se está explorando junto con ellos cómo la IA avanzada puede apoyar a responsables públicos que defienden infraestructura crítica, como sistemas digitales para proteger datos fiscales, redes eléctricas y el suministro de agua potable de las comunidades
- Las capacidades biological/chemical y de cybersecurity de GPT-5.5 están clasificadas como High dentro del Preparedness Framework
- Aunque no ha alcanzado un nivel Critical en capacidad de cybersecurity, las evaluaciones y pruebas confirmaron capacidades en cyber un nivel por encima de GPT-5.4
- Antes del lanzamiento pasó por todo el safety and governance process
- Esto incluyó evaluaciones de preparedness, pruebas por dominio, nuevas evaluaciones dirigidas a biology y cybersecurity avanzados, y pruebas rigurosas con expertos externos
- Los detalles están disponibles en la GPT-5.5 system card
- Este enfoque forma parte de una estrategia de AI resilience necesaria para la era de modelos más poderosos
- También hay que poner la IA potente en manos de quienes defienden sistemas, instituciones y al público, y se plantea como vía clave un acceso basado en confianza, safeguards que se refuercen en proporción a la capacidad y capacidad operativa para detectar y responder a abusos graves
Planes disponibles y precios
- Actualmente, en ChatGPT y Codex, GPT-5.5 se está desplegando para usuarios Plus, Pro, Business y Enterprise, y GPT-5.5 Pro se ofrece en ChatGPT para Pro, Business y Enterprise
- En ChatGPT, GPT-5.5 Thinking está disponible para Plus, Pro, Business y Enterprise
- GPT-5.5 Pro apunta a preguntas más difíciles y mayor precisión, y está disponible en Pro, Business y Enterprise
- En Codex, GPT-5.5 está disponible en los planes Plus, Pro, Business, Enterprise, Edu y Go, y tiene una ventana de contexto de 400K
- También se ofrece Fast mode, con una velocidad de generación de tokens 1.5 veces mayor y un costo 2.5 veces superior
- gpt-5.5 para desarrolladores de API estará disponible pronto en Responses API y Chat Completions API
- Se indica un precio de 5 dólares por 1M tokens de entrada, 30 dólares por 1M tokens de salida y una ventana de contexto de 1M
- Batch y Flex se ofrecen a la mitad de la tarifa estándar de API, y Priority processing con una tarifa 2.5 veces mayor
- gpt-5.5-pro también llegará a la API, con el objetivo de ofrecer mayor precisión
- Figura con un precio de 30 dólares por 1M tokens de entrada y 180 dólares por 1M tokens de salida
- La información completa de precios está enlazada en la pricing page
- GPT-5.5 es más caro que GPT-5.4, pero también ofrece mayor inteligencia y eficiencia de tokens
- En Codex, la experiencia se ajustó para que, para la mayoría de los usuarios, entregue mejores resultados con menos tokens que GPT-5.4
- Se seguirá ofreciendo un uso generoso en todos los niveles de suscripción
Benchmarks detallados
-
Coding
- En SWE-Bench Pro (Public), GPT-5.5 obtuvo 58.6%, GPT-5.4 57.7%, Claude Opus 4.7 64.3% y Gemini 3.1 Pro 54.2%
- En Terminal-Bench 2.0, GPT-5.5 obtuvo 82.7%, GPT-5.4 75.1%, Claude Opus 4.7 69.4% y Gemini 3.1 Pro 68.5%
- Expert-SWE (Internal) muestra a GPT-5.5 con 73.1% y a GPT-5.4 con 68.5%
-
Trabajo profesional
- En GDPval (wins or ties), GPT-5.5 obtuvo 84.9%, GPT-5.4 83.0%, GPT-5.5 Pro 82.3%, GPT-5.4 Pro 82.0%, Claude Opus 4.7 80.3% y Gemini 3.1 Pro 67.3%
- En FinanceAgent v1.1, GPT-5.5 obtuvo 60.0%, GPT-5.4 56.0%, GPT-5.4 Pro 61.5%, Claude Opus 4.7 64.4% y Gemini 3.1 Pro 59.7%
- En Investment Banking Modeling Tasks (Internal), GPT-5.5 obtuvo 88.5%, GPT-5.4 87.3%, GPT-5.5 Pro 88.6% y GPT-5.4 Pro 83.6%
- En OfficeQA Pro, GPT-5.5 obtuvo 54.1%, GPT-5.4 53.2%, Claude Opus 4.7 43.6% y Gemini 3.1 Pro 18.1%
-
Uso de computadora y visión
- En OSWorld-Verified, GPT-5.5 obtuvo 78.7%, GPT-5.4 75.0% y Claude Opus 4.7 78.0%
- En MMMU Pro (no tools), GPT-5.5 y GPT-5.4 empatan con 81.2%, mientras que Gemini 3.1 Pro obtuvo 80.5%
- En MMMU Pro (with tools), GPT-5.5 obtuvo 83.2% y GPT-5.4 82.1%
-
Uso de herramientas
- En BrowseComp, GPT-5.5 obtuvo 84.4%, GPT-5.4 82.7%, GPT-5.5 Pro 90.1%, GPT-5.4 Pro 89.3%, Claude Opus 4.7 79.3% y Gemini 3.1 Pro 85.9%
- En MCP Atlas, GPT-5.5 obtuvo 75.3%, GPT-5.4 70.6%, Claude Opus 4.7 79.1% y Gemini 3.1 Pro 78.2%
- En Toolathlon, GPT-5.5 obtuvo 55.6%, GPT-5.4 54.6% y Gemini 3.1 Pro 48.8%
- En Tau2-bench Telecom, con base en el prompt original, GPT-5.5 obtuvo 98.0% y GPT-5.4 92.8%
- La nota de MCP Atlas indica que son resultados posteriores a la actualización más reciente de abril de 2026 de Scale AI
- La nota de Tau2-bench Telecom especifica que se evaluó sin prompt adjustment y que se excluyeron los resultados con prompt adjustment de otros laboratorios
-
Académico
- En GeneBench, GPT-5.5 obtuvo 25.0%, GPT-5.4 19.0%, GPT-5.5 Pro 33.2% y GPT-5.4 Pro 25.6%
- En FrontierMath Tier 1–3, GPT-5.5 obtuvo 51.7%, GPT-5.4 47.6%, GPT-5.5 Pro 52.4%, GPT-5.4 Pro 50.0%, Claude Opus 4.7 43.8% y Gemini 3.1 Pro 36.9%
- En FrontierMath Tier 4, GPT-5.5 obtuvo 35.4%, GPT-5.4 27.1%, GPT-5.5 Pro 39.6%, GPT-5.4 Pro 38.0%, Claude Opus 4.7 22.9% y Gemini 3.1 Pro 16.7%
- En BixBench, GPT-5.5 obtuvo 80.5% y GPT-5.4 74.0%
- En GPQA Diamond, GPT-5.5 obtuvo 93.6%, GPT-5.4 92.8%, GPT-5.4 Pro 94.4%, Claude Opus 4.7 94.2% y Gemini 3.1 Pro 94.3%
- En Humanity's Last Exam (no tools), GPT-5.5 obtuvo 41.4%, GPT-5.4 39.8%, GPT-5.5 Pro 43.1%, GPT-5.4 Pro 42.7%, Claude Opus 4.7 46.9% y Gemini 3.1 Pro 44.4%
- En Humanity's Last Exam (with tools), GPT-5.5 obtuvo 52.2%, GPT-5.4 52.1%, GPT-5.5 Pro 57.2%, GPT-5.4 Pro 58.7%, Claude Opus 4.7 54.7% y Gemini 3.1 Pro 51.4%
-
Ciberseguridad
- En Capture-the-Flags challenge tasks (Internal), GPT-5.5 obtuvo 88.1% y GPT-5.4 83.7%
- En CyberGym, GPT-5.5 obtuvo 81.8%, GPT-5.4 79.0% y Claude Opus 4.7 73.1%
- La nota indica que son resultados que amplían el CTF más difícil descrito en la system card y añaden más desafíos de alta dificultad
-
Contexto largo
- En Graphwalks BFS 256k f1, GPT-5.5 obtuvo 73.7%, GPT-5.4 62.5% y Claude Opus 4.7 76.9%
- En Graphwalks BFS 1mil f1, GPT-5.5 obtuvo 45.4%, GPT-5.4 9.4% y Claude Opus 4.6 41.2%
- En Graphwalks parents 256k f1, GPT-5.5 obtuvo 90.1%, GPT-5.4 82.8% y Claude Opus 4.7 93.6%
- En Graphwalks parents 1mil f1, GPT-5.5 obtuvo 58.5%, GPT-5.4 44.4% y Claude Opus 4.6 72.0%
- OpenAI MRCR v2 8-needle se presenta por longitud de contexto: 4K-8K 98.1%, 8K-16K 93.0%, 16K-32K 96.5%, 32K-64K 90.0%, 64K-128K 83.1%, 128K-256K 87.5%, 256K-512K 81.5% y 512K-1M 74.0%
- En el mismo apartado, GPT-5.4 obtuvo respectivamente 97.3%, 91.4%, 97.2%, 90.5%, 86.0%, 79.3%, 57.5% y 36.6%
- En el rango 128K-256K aparece Claude Opus 4.7 con 59.2%, y en el rango 512K-1M aparece Claude Opus 4.7 con 32.2%
-
Razonamiento abstracto
- En ARC-AGI-1 (Verified), GPT-5.5 obtuvo 95.0%, GPT-5.4 93.7%, GPT-5.4 Pro 94.5%, Claude Opus 4.7 93.5% y Gemini 3.1 Pro 98.0%
- En ARC-AGI-2 (Verified), GPT-5.5 obtuvo 85.0%, GPT-5.4 73.3%, GPT-5.4 Pro 83.3%, Claude Opus 4.7 75.8% y Gemini 3.1 Pro 77.1%
- Se indica que las evaluaciones de la familia GPT se realizaron en un entorno de investigación con reasoning effort configurado en
xhigh, y que en algunos casos la salida puede diferir ligeramente de la de ChatGPT en producción
1 comentarios
Opiniones en Hacker News
Lo de decir en NVIDIA que perder acceso a GPT-5.5 se siente como perder una extremidad suena mucho más inquietante de lo que probablemente pretendían
Parece aplicarse a toda esta dependencia de los modelos frontier para programar, y cuanto mejor rinden, más rápido uno empieza a apoyarse en ellos al programar
Habiéndolo vivido en carne propia, la sensación es bastante incómoda. Ahora mismo, en vez de armarme de paciencia y programar a mano, resolverlo de una sola vez con el modelo es como 10 veces más rápido, y mi papel también cambió
Que pueda hacer que muchas más cosas funcionen es increíble, pero cuando se acaban los tokens, el trabajo en la práctica también se detiene
Cuando Claude se cae, me da más apalancamiento salir a caminar que forzarme a escribir código. Si una hora después Claude ya volvió, avanzo más que quedándome atorado con el código que generó el LLM e intentando resolver el problema manualmente hasta agotarme
En fin, que esta situación siga así me inquieta un poco
El mercado hoy se sostiene sobre la idea de que el trabajo está atomizado y tiene poco poder de negociación, mientras que el capital tiene mucho más poder y en la práctica ha fijado el precio del trabajo
Pero, ¿qué pasa si ese trabajo lo provee otra empresa aún más grande, y además puede cortar ese suministro indefinidamente, a diferencia del trabajo tradicional?
Ahora el trabajo se volvió otra forma de capital, y el capital no necesita comer
Las empresas que no usen modelos propios probablemente lo van a aprender por las malas
Construyes más rápido, escribes menos código tú mismo, y la gestión de estado interno o de memoria la hace la librería por ti
Habrá quien se sienta incómodo dependiendo de llamadas a librerías en vez de manipular punteros y
malloc()directamente, pero para otros es liberador porque les permite enfocarse en arquitectura de más alto nivel sin hundirse en cambios de contexto de bajo nivelA menudo le pido que me haga un CLI autónomo o una herramienta, en lugar de darme una respuesta ya terminada
También le pregunto cómo llegó a esa conclusión para ampliar mi propia perspectiva, y le hago explicar incluso su forma de clasificar a nivel de metadatos
Especialmente en codebases grandes, donde la dificultad está menos en el concepto que en el tamaño del grafo de referencias, intento usar esto de una forma que mejore mi capacidad de resolver problemas
Porque aunque desaparezcan los modelos hosteados o se vuelvan demasiado caros, solo perderías esa pequeña diferencia de rendimiento
Claro, ninguna de esas dos suposiciones es para nada obvia, así que más bien es un deseo
Y honestamente, que todavía se siga repitiendo el lema de la productividad 10x cuesta creerlo
El lanzamiento de GPT-5.5 es hoy, pero dicen que la llegada a ChatGPT y Codex se hará de forma gradual durante varias horas
Por estabilidad del servicio lo van habilitando por etapas como en lanzamientos anteriores, normalmente empezando por Pro/Enterprise y luego bajando a Plus
Puede que no te aparezca de inmediato, así que recomiendan volver a revisar más tarde
Esperar al azar puede ser frustrante, pero dicen que lo hacen por estabilidad
Aclara que trabaja en OpenAI
Quise usarlo como reemplazo después del OAuthgate de Anthropic, pero no lograba completar ni subtareas rápidas, seguras e inofensivas
La conversación terminaba en un bucle de disculpas del tipo “debí haber hecho X aquí” “cierto, fallé” “entonces hazlo ahora” “debí hacerlo, pero no lo hice”
Más tarde GLM, Kimi y Minimax lo resolvieron sin problema, lo que lo hizo aún más absurdo, así que no me quedó otra que descartar OpenAI de inmediato
Mejor aún si la UI mostrara que el modelo existe pero todavía no está habilitado para mi cuenta
Lo ideal sería hasta tener un ETA, aunque supongo que sería difícil predecirlo si surgen problemas durante el rollout
Tengo curiosidad por saber si Images 2.0 también se está habilitando dentro de ChatGPT, o si por un tiempo seguirá siendo una función solo de API/Playground
Todavía no hay acceso oficial por API, pero últimamente OpenAI parece estar tolerando de hecho el backdoor de la API de Codex que usa OpenClaw
https://twitter.com/steipete/status/2046775849769148838 y https://twitter.com/romainhuet/status/2038699202834841962
Ese backdoor API ya incluye GPT-5.5
Así que corrí el ejemplo del pelícano en https://simonwillison.net/2026/Apr/23/gpt-5-5/#and-some-peli...
usando el nuevo plugin para LLM https://github.com/simonw/llm-openai-via-codex
Más tarde subí el reasoning effort a xhigh y salió un pelícano mucho mejor
https://gist.github.com/simonw/a6168e4165a258e4d664aeae8e602...
Aunque bueno, este al menos da risa porque tiene las patas cruzadas
Ya van por la versión 5.5 y todavía no puede dibujar bien ni un cuadro básico de bicicleta
La rueda delantera no podría girar hacia un lado de esa forma, y el dibujo no lo refleja bien
No sé exactamente qué son los reasoning tokens, pero de cualquier forma el número de tokens se ve impactantemente bajo
Recuerdo que a Anthropic le molestaba muchísimo este tipo de uso
Incluso modelos locales open weight como Qwen que mostraron ayer se veían mejor
Todos estaban hablando del gating de Mythos de Anthropic y del marketing del 83% en CyberGym, pero OpenAI simplemente soltó GPT-5.5 y marcó 82%
Que cualquiera pueda probarlo importa mucho más
Si trabajas en ciberseguridad ofensiva/defensiva, me parece más útil ponerle las manos encima a un modelo realmente publicado que quedarse con marketing inflado
Nunca pensé decir esto, pero ahora OpenAI vuelve a verse como la opción más abierta
Por eso el sector de seguridad entró en pánico: sentían que quedaban apenas unas dos semanas para contener nuevos zero-days, y que después podía abrirse una temporada abierta en la que los black hats encontrarían y explotarían un montón
Anthropic nunca ha publicado un modelo abierto, nunca liberó voluntariamente el código fuente de Claude Code, ni tampoco su tokenizer
La documentación incluso dice que las tareas de ciberseguridad pueden hacer fallback a GPT-5.2 si las detecta el sistema automático
https://developers.openai.com/codex/concepts/cyber-safety
https://chatgpt.com/cyber
Anthropic me parece casi la encarnación del bluff
Después de leer a Cialdini hace tiempo, todo el montaje al estilo Anthropic me aburre
En cambio OpenAI es muy astuto. Cuando Claude despegó, desapareció un tiempo de los titulares, pero ahora, gracias a su enorme base de usuarios, le basta con seguir el ritmo de lanzamientos de Anthropic para hacer que el otro se vea ridículo
Desde la perspectiva de Anthropic, cada nueva versión de GPT que sale debe sentirse más humillante, y da la impresión de que OpenAI va a terminar dominándolo todo
Ojalá vieran la sección de precios/límites de uso de esta página
https://developers.openai.com/codex/pricing?codex-usage-limi...
Basta con ver la diferencia de Local Messages entre 5.3, 5.4 y 5.5
Leí el argumento de que 5.5 es más eficiente y por eso queda cerca del punto de equilibrio con 5.4, pero en cualquier caso la tendencia parece clara: límites más duros y precios más altos
La lección que aparentemente sacaron del caso Anthropic es que los desarrolladores se vuelven dependientes, incluso adictos, a los agentes de programación muy rápido, así que están dispuestos a pagar lo que sea por mejoras aunque sean pequeñas
El prototipo de arena de mazmorra 3D hecho con Codex y GPT se ve bastante convincente
Dicen que Codex se encargó de la arquitectura del juego, la implementación en TypeScript/Three.js, el sistema de combate, los encuentros con enemigos y el feedback del HUD, mientras que GPT generó las texturas del entorno y los modelos y animaciones de los personajes salieron de herramientas externas de generación de assets
Probablemente parte de por qué se ve bien es que la malla no la hizo GPT-5.5 directamente, sino otra herramienta separada
Viendo esto, parece que se viene una era parecida a la de Flash, donde gamers y desarrolladores aficionados pueden crear rápido conceptos de juego y publicarlos enseguida en la web
Especialmente con Three.js, que ni siquiera es un motor de juegos pero da la impresión de estar volviéndose una herramienta casi central para diseñarlos con IA
Solo en el caso de Three.js, fue el mayor salto generacional individual que he visto, especialmente en shaders GLSL, y también mejoró la estructuración de escenas divididas en varias páginas/componentes
Todavía es difícil generar un shader completo desde cero, pero ya es bastante útil para modificar shaders existentes
En 5.2 o menos era realmente malo para el patrón one canvas, multiple page, donde mantienes un solo canvas de fondo a través de varias rutas, pero 5.4, aunque todavía necesita algo de guía, responde mucho mejor a prompts de refactorización y optimización
Tengo ganas de probar qué tal sale 5.5 en la práctica
Mi visualización rara de reloj también dependió bastante de eso
No es un motor de juegos, pero para hacer 3D WebGL en la web es prácticamente el estándar, y por los años que lleva existe una enorme cantidad de datos de entrenamiento
Antes de los LLM dependía más de Babylon.js, que tiene funciones de nivel más alto
Antes se llamaba Spielwerk y es una app para crear y compartir juegos en iOS
Todo está basado en web, así que compartirlo es fácil
https://apps.apple.com/uz/app/jamboree-game-maker/id67473110...
No he probado GPT, pero con Claude, por más prompt engineering que le hice, no pudo resolver un cubo de Rubik, y hasta Opus 4.6 solo acertó más o menos el 70% del rompecabezas antes de trabarse
Además cuesta unos 20 dólares por intento, así que tampoco es sostenible
Si se lograra un razonamiento tridimensional de verdad, probablemente se podría extender el mismo enfoque a problemas matemáticos que hoy no se pueden resolver
Estoy pensando en publicar mi servidor MCP de Rubik's Cube para retar a la gente a ver si alguien logra resolver el cubo solo con prompts
De este anuncio, más que los benchmarks, me pareció más interesante la parte donde dicen que Codex analizó varias semanas de patrones reales de tráfico, elevó la utilización de GPU y escribió algoritmos heurísticos personalizados para dividir y balancear trabajo, logrando aumentar la velocidad de generación de tokens en más de 20%
Este tipo de optimización de eficiencia computacional por parte de LLM agénticos parece tener muchísimo impacto, pero se prueba menos que los benchmarks
Por mi experiencia, en esto Opus todavía va mejor que GPT/Codex, pero como OpenAI está obteniendo beneficios reales maximizando rendimiento bajo presión de costos y capacidad, imagino que van a seguir empujando en esa dirección
Me acordé de aquella famosa optimización de código golf de Intel para FizzBuzz, así que le pasé mi código a gemini pro y le pedí “sugiéreme optimizaciones ingeniosas de ese estilo”, y las propuestas fueron realmente excelentes
Los LLM siguen sorprendiéndome todos los días
Y además todas las empresas saben que optimizar su propia infraestructura y sus modelos es una vía clave para ganar la competencia, así que asumo que esto se lo están tomando muy en serio
Me alegra que se salga de benchmarks tradicionales como MMLU, pero dar cifras así sin experimentos con controles adecuados no ayuda demasiado
Si comparas Mythos vs GPT-5.5 por números, la diferencia sigue siendo grande en SWE-bench Pro, pero en lo demás se ven bastante parejos
SWE-bench Pro 77.8% vs 58.6%
Terminal-bench-2.0 82.0% vs 82.7%
GPQA Diamond 94.6% vs 93.6%
H. Last Exam 56.8% vs 41.4%
H. Last Exam (tools) 64.7% vs 52.2%
BrowseComp 86.9% vs 84.4%, Pro 90.1%
OSWorld-Verified 79.6% vs 78.7%
La fuente de los números de Mythos es https://www.anthropic.com/glasswing
Si pruebas Opus 4.7 ahora mismo, la autonomía se siente fuertemente nerfeada y muy restringida por la llamada seguridad
Así que no tengo mucha confianza en que sea tan impresionante en la práctica como lo vende Anthropic
Está aquí
https://www.anthropic.com/news/claude-opus-4-7#:~:text=memor...
Si tomas los envíos oficiales en https://github.com/SWE-bench/experiments/tree/main/evaluatio... y sumas solo modelos desde Sonnet 4 en adelante sobre el total de 500 problemas, la tasa de resolución combinada de todos los modelos daba exactamente 93%
Entonces, que Mythos haya marcado 93.7% implicaría que resolvió problemas que ningún otro modelo pudo resolver, y al revisar esos problemas la cosa se veía todavía más sospechosa
El 7% restante parecía prácticamente imposible de resolver sin haber visto de antemano el patch de prueba, y la solución real se desviaba tanto del enunciado que daba la impresión de estar resolviendo otro problema por completo
No estoy diciendo que Mythos haya hecho trampa, pero sí que quizá recuerda demasiado bien distintos estados del repositorio y es capaz de inferir el verdadero enunciado del problema solo a partir de diffs memorizados internamente
De otro modo cuesta explicar cómo interpreta con tanta precisión descripciones tan ambiguas
En todos los benchmarks siempre terminan saliendo resultados raros
Sigue decepcionándome que todavía tenga una tasa de alucinación del 86%
En comparación, Opus anda por 36%
La fuente es https://artificialanalysis.ai/models?omniscience=omniscience...
Según la pregunta, la alucinación a veces parece estar más cerca del 100%, así que este benchmark no resulta intuitivamente muy convincente
Es probable que quien pregunta no entienda del todo el problema, así que parece preferir una respuesta segura y confiada sin importar el resultado
El objetivo parecería ser vender una impresión de competencia más que la capacidad real de la tecnología
Los LLM pueden terminar arruinando un producto, pero si la máquina de pensar de un multimillonario puede reemplazar empleados y te dicen que gastes ahí el 75% del presupuesto laboral, pues allá ellos si quieren que los estafen con gusto
Este modelo es muy fuerte para tareas de largo plazo, y ahora Codex incluso tiene heartbeats para poder seguir revisando su estado
Dice que si le das un problema difícil que tarde horas, con restricciones verificables, ahí se nota lo bueno que es
Aclara que trabaja en OpenAI
Últimamente estoy cansado de que otros modelos, sobre todo Opus, se queden parados a media tarea
Felicidades por el lanzamiento