4 puntos por GN⁺ 6 일 전 | 1 comentarios | Compartir por WhatsApp
  • Un modelo de tipo agente que planifica por sí mismo tareas complejas y combina herramientas para completarlas de principio a fin, abarcando desde escritura y depuración de código hasta investigación web, análisis de datos, creación de documentos y hojas de cálculo, y manejo de software
  • Mantiene la misma per-token latency que GPT-5.4, pero mejora el rendimiento en coding, computer use, trabajo de conocimiento e investigación científica temprana, y además gana eficiencia al completar las mismas tareas de Codex con menos tokens
  • En ingeniería de software registró 82.7% en Terminal-Bench 2.0, 73.1% en Expert-SWE y 58.6% en SWE-Bench Pro, mostrando fortalezas en implementación, refactorización, depuración, pruebas, verificación y mantenimiento del contexto en codebases grandes
  • También se fortaleció el flujo de trabajo en tareas generales y de investigación, desde la creación de documentos, hojas de cálculo y diapositivas hasta computer use basado en manipulación de pantalla, análisis de datos en múltiples pasos, validación de hipótesis e interpretación de resultados, mientras que GPT-5.5 Pro apunta a una mayor precisión y cobertura
  • Antes de su lanzamiento pasó por medidas de seguridad reforzadas y pruebas internas y externas, y se está desplegando de forma gradual en ChatGPT y Codex principalmente para usuarios de Plus, Pro, Business y Enterprise, en lo que parece ser una etapa que amplía el alcance del uso práctico de la IA

Resumen del modelo y alcance del despliegue

  • GPT-5.5 se presenta como un modelo que entiende más rápido la intención, planifica por sí mismo tareas de varias etapas y usa herramientas para llevarlas hasta el final
    • Puede realizar escritura y depuración de código, investigación web, análisis de datos, creación de documentos y hojas de cálculo, manejo de software y tareas que van pasando entre varias herramientas
    • En lugar de gestionar cada paso al detalle, está diseñado para recibir de una sola vez tareas complejas y desordenadas, y continuar con la planificación, uso de herramientas, verificación y manejo de ambigüedades
  • Se destaca especialmente la mejora en tareas de tipo agente, con un rendimiento sólido en coding, computer use, knowledge work e investigación científica temprana
    • Aunque los modelos más grandes suelen volverse más lentos, en servicio real la per-token latency se mantiene al mismo nivel que GPT-5.4
    • También mejora la eficiencia al completar las mismas tareas de Codex con menos tokens
  • Antes del lanzamiento se reforzaron las medidas de seguridad, incorporando pruebas internas y externas de red team, evaluaciones adicionales sobre capacidades avanzadas de cybersecurity y biología, y retroalimentación de uso temprano de unos 200 socios de confianza
  • Actualmente se está desplegando de forma gradual en ChatGPT y Codex para usuarios de Plus, Pro, Business y Enterprise, y GPT-5.5 Pro está disponible en ChatGPT para Pro, Business y Enterprise
    • La API sigue ajustándose a requisitos de seguridad por separado, y GPT-5.5 y GPT-5.5 Pro se ofrecerán pronto

Ingeniería de software y coding de tipo agente

  • OpenAI está construyendo una infraestructura de agentic AI, y durante el último año la IA ha acelerado fuertemente la ingeniería de software
    • Con la llegada de GPT-5.5 a Codex y ChatGPT, ese cambio comienza a extenderse a la investigación científica y al trabajo general en computadora
  • Según el Artificial Analysis Coding Index, ofrece inteligencia de primer nivel entre los frontier coding models competidores a la mitad del costo
  • GPT-5.5 es presentado por OpenAI como su modelo de agentic coding más fuerte
    • Obtuvo 82.7% en Terminal-Bench 2.0, que evalúa flujos de trabajo complejos de línea de comandos que requieren planificación, iteración y combinación de herramientas
    • En SWE-Bench Pro obtuvo 58.6%, resolviendo de extremo a extremo más tareas reales de GitHub issues en una sola pasada que el modelo anterior
    • También superó a GPT-5.4 en la evaluación interna Expert-SWE
  • En las tres evaluaciones de coding logró mejores puntajes que GPT-5.4 usando menos tokens
  • En Codex, sus fortalezas se notan en implementación, refactorización, depuración, pruebas y verificación
    • Se vuelve más fuerte en comportamientos reales de ingeniería, como mantener el contexto de sistemas grandes, rastrear causas ambiguas de fallas, confirmar hipótesis con herramientas y reflejar cambios a lo largo de todo el codebase

Ejemplos de uso en coding y pruebas iniciales

  • Se incluye como ejemplo un prompt para implementar una app con WebGL + Vite usando datos reales de Artemis II
    • Renderiza las trayectorias de Orion, Moon y Sun usando datos vectoriales de NASA/JPL Horizons
    • Aplica escala de visualización para mejorar la legibilidad
  • Los primeros testers evaluaron que GPT-5.5 entiende mejor la estructura del sistema
    • Identifica con más precisión qué falla, por qué falla, dónde debe ir la corrección y qué impacto tendrá en otras partes del codebase
  • Dan Shipper probó si podía reconstruir una reformulación del mismo nivel después de revertir una falla tras el lanzamiento, y GPT-5.4 falló mientras GPT-5.5 tuvo éxito
  • Pietro Schirano fusionó de una sola vez en unos 20 minutos una rama con cientos de cambios de frontend y refactorización en una rama principal que ya había cambiado mucho
  • En pruebas con ingenieros senior, destacó en reasoning y autonomy frente a GPT-5.4 y Claude Opus 4.7
    • Incluso sin prompts explícitos, detecta problemas con anticipación y prevé la necesidad de pruebas y revisión
    • Cuando se le pidió rediseñar el sistema de comentarios de un editor colaborativo en markdown, entregó una pila de 12 diffs casi terminada
    • Hizo falta menos trabajo de corrección en la implementación de lo esperado, y también aumentó la confianza en el plan frente a GPT-5.4
  • En una cita de Michael Truell de Cursor, se destaca que puede mantener el trabajo por más tiempo y que se adapta mejor a tareas complejas y de larga ejecución sin detenerse antes de tiempo

Trabajo general de conocimiento y uso de la computadora

  • Las fortalezas mostradas en coding también se trasladan tal cual al trabajo cotidiano en computadora
    • Como entiende mejor la intención, realiza de forma más natural todo el proceso de buscar información, seleccionar lo importante, usar herramientas, verificar resultados y convertir materia prima en entregables útiles
  • En Codex, GPT-5.5 es más fuerte que GPT-5.4 para crear documentos, hojas de cálculo y diapositivas
    • Los alpha testers señalaron que supera al modelo anterior en tareas como investigación operativa, modelado en hojas de cálculo y convertir insumos de negocio desordenados en planes
  • Combinado con la capacidad de computer use de Codex, puede ver la pantalla, hacer clic, escribir, navegar interfaces y pasar con precisión entre varias herramientas
  • OpenAI ya lo está usando en flujos de trabajo reales dentro de la empresa, y actualmente más del 85% del personal usa Codex cada semana
    • Se utiliza en ingeniería de software, finanzas, comunicaciones, marketing, ciencia de datos y gestión de producto
  • El equipo de comunicaciones analizó datos de speaking requests de seis meses para crear un framework de puntuación y riesgo, y validó un agente de Slack que procesa automáticamente solicitudes de bajo riesgo y deja las de alto riesgo para revisión humana
  • El equipo de Finance revisó 24,771 formularios fiscales K-1, un total de 71,637 páginas, y adelantó el proceso en dos semanas frente al año anterior mediante un flujo de trabajo que excluye información personal
  • En el equipo de Go-to-Market se automatizó la generación de reportes semanales de negocio, lo que ahorra 5 a 10 horas por semana

GPT-5.5 Thinking y GPT-5.5 Pro en ChatGPT

  • GPT-5.5 Thinking de ChatGPT fue diseñado para responder más rápido a problemas más difíciles, y permite realizar tareas complejas con mayor eficiencia gracias a respuestas más inteligentes y concisas
    • es fuerte en coding, research, síntesis y análisis de información, y trabajo centrado en documentos, y resulta especialmente ventajoso al usar plugins
  • GPT-5.5 Pro apunta a tareas más difíciles y a una mayor calidad, con menor latencia, lo que aumenta su aplicabilidad en entornos reales
    • frente a GPT-5.4 Pro, sus respuestas son más integrales, mejor estructuradas, más precisas, más relevantes y más útiles
    • destaca especialmente en business, legal, education y data science
  • También presenta cifras altas en benchmarks cercanos al trabajo profesional
    • registró GDPval 84.9%, OSWorld-Verified 78.7% y Tau2-bench Telecom 98.0%
    • Tau2-bench Telecom se ejecutó sin prompt tuning
    • también se presentaron FinanceAgent 60.0%, internal investment-banking modeling tasks 88.5% y OfficeQA Pro 54.1%
  • En una cita de Justin Boitano de NVIDIA, se plantea un flujo en el que se ofrece sobre sistemas NVIDIA GB200 NVL72, se entregan capacidades end-to-end con prompts en lenguaje natural, se reduce el tiempo de depuración de días a horas, y experimentos que habrían tomado semanas pasan a realizarse de un día para otro

Flujo de trabajo de investigación científica y técnica

  • GPT-5.5 también muestra mejoras de rendimiento en flujos de trabajo de investigación científica y técnica
    • va más allá de responder preguntas difíciles, y sostiene mejor el ciclo que conecta exploración de ideas, recopilación de evidencia, validación de hipótesis, interpretación de resultados y decisión del siguiente experimento
  • En GeneBench muestra una mejora clara frente a GPT-5.4
    • es una nueva evaluación orientada al análisis de datos multietapa en genetics y quantitative biology
    • aborda datos ambiguos o con errores, confounders ocultos, fallas de QC, e implementación e interpretación de técnicas estadísticas modernas
    • las tareas aquí equivalen a proyectos de varios días incluso para expertos científicos
  • En BixBench también logró un rendimiento líder entre los modelos con puntuaciones públicas
    • se presenta como un benchmark que refleja bioinformatics y análisis de datos del mundo real
    • muestra potencial de aceleración a nivel de co-scientist en la frontera de la biomedical research
  • Una versión interna de GPT-5.5 y un custom harness también se usaron para encontrar una nueva prueba sobre Ramsey numbers
    • enlace a la nueva prueba
    • encontró una prueba sobre un hecho asintótico de larga data relacionado con off-diagonal Ramsey numbers en combinatorics, y luego se verificó con Lean
    • contribuye no solo con código o explicaciones, sino también con razonamientos matemáticos útiles en áreas centrales de investigación
  • Los testers iniciales usan GPT-5.5 Pro más como un socio de investigación que como un motor de respuestas aisladas
    • revisa borradores de forma crítica en múltiples rondas, pone a prueba argumentos técnicos, propone análisis y trabaja con el contexto de código, notas y PDFs
    • ayuda mejor con el flujo que va de la pregunta al experimento y al entregable

Casos de investigación

  • Derya Unutmaz, de Jackson Laboratory for Genomic Medicine, analizó con GPT-5.5 Pro un dataset de expresión génica de 62 muestras y unas 28,000 genes
    • generó un informe de investigación detallado que reveló no solo un resumen de resultados, sino también preguntas clave e insights
    • ese trabajo tenía una escala que habría tomado meses a su equipo
  • Bartosz Naskręcki, de Adam Mickiewicz University, creó con Codex una app de algebraic geometry en 11 minutos a partir de un solo prompt
    • visualiza la intersección de dos quadratic surfaces y transforma la curva resultante en un modelo de Weierstrass
    • después hizo más estable la visualización de singularities y añadió exact coefficients reutilizables para trabajo posterior
    • Codex también ayudó a implementar visualizaciones matemáticas personalizadas y flujos de trabajo de computer algebra que antes requerían herramientas dedicadas
  • Credit: Bartosz Naskręcki
  • En una cita de Brandon White, de Axiom Bio, se indica que se infirieron enormes biochemical datasets para predecir human drug outcomes, y que apareció una mejora significativa de precisión en las evaluaciones más difíciles de drug discovery

Infraestructura de inferencia y optimización de rendimiento

  • Para dar servicio a GPT-5.5 con una latencia similar a la de GPT-5.4, fue necesario rediseñar la inferencia como un sistema integrado y no como un conjunto de optimizaciones aisladas
    • GPT-5.5 fue codiseñado, entrenado y servido tomando como base los sistemas NVIDIA GB200 y GB300 NVL72
  • Codex y el propio GPT-5.5 contribuyeron directamente a alcanzar los objetivos de rendimiento
    • Codex se usa para llevar ideas rápidamente a implementaciones medibles con benchmarks, esbozar enfoques, conectar experimentos e identificar optimizaciones que requieren una inversión más profunda
    • GPT-5.5 ayudó a encontrar e implementar mejoras clave dentro del stack
    • al final, el modelo también contribuyó a mejorar la infraestructura que lo sirve a sí mismo
  • Como caso representativo de mejora, se presentan las heurísticas de load balancing y partitioning
    • antes, las solicitudes sobre los accelerators se dividían en una cantidad fija de chunks para que solicitudes grandes y pequeñas corrieran en la misma GPU
    • pero una cantidad estática de chunks no era óptima para todas las formas de tráfico
    • Codex analizó durante semanas los patrones de production traffic y escribió un algoritmo heurístico personalizado para dividir y balancear las tareas de forma óptima
    • con este trabajo, la token generation speed aumentó más de 20%

Ciberseguridad y salvaguardas

  • Preparar para el mundo un modelo capaz de detectar vulnerabilidades y aplicar parches se parece más a un deporte de equipo, y para la próxima era de la defensa cibernética se necesita la resiliencia de todo el ecosistema
  • Las capacidades de cybersecurity de los modelos frontier siguen fortaleciéndose, y como esta capacidad se difundirá ampliamente, cobra importancia el camino para usarla en acelerar la defensa cibernética y fortalecer el ecosistema
  • GPT-5.5 se presenta como un paso gradual pero importante hacia una IA que resuelva problemas difíciles como cybersecurity
    • En GPT-5.2 se implementaron de forma preventiva cyber safeguards para limitar el posible uso malicioso en cyber
    • En GPT-5.5 se implementaron clasificadores más estrictos frente al riesgo potencial en cyber, y al principio esto puede resultar molesto para algunos usuarios
  • OpenAI ha tratado cybersecurity como una categoría independiente durante años dentro del Preparedness Framework, y ha ajustado de forma iterativa las medidas de mitigación conforme aumentaban las capacidades
  • Se implementaron safeguards de nivel líder en la industria acordes con este nivel de capacidad en cyber
    • En GPT-5.2 se introdujeron por primera vez safeguards específicos para cyber, y desde entonces se han probado, refinado y ampliado en cada despliegue
    • En GPT-5.5 se reforzaron aún más las protecciones frente a actividades de alto riesgo, solicitudes sensibles de cyber y abuso repetido
    • El acceso amplio fue posible gracias a inversiones en seguridad del modelo, uso autenticado y monitoreo de usos no permitidos
    • Se desarrolló, probó y mejoró la robustez durante varios meses junto con expertos externos
    • Se facilita que los desarrolladores protejan su código con mayor facilidad, mientras que se aplican controles más fuertes a flujos de trabajo de cyber que podrían facilitar daños a actores maliciosos
  • También avanza la ampliación del acceso con fines defensivos
    • A través de Trusted Access for Cyber se ofrece acceso a modelos cyber-permissive, y el punto de partida es Codex
    • A usuarios verificados que cumplan ciertas trust signals se les ofrecen funciones avanzadas de cybersecurity de GPT-5.5 con menos restricciones
    • Las organizaciones encargadas de la defensa de infraestructura crítica pueden solicitar acceso a modelos cyber-permissive como GPT-5.4-Cyber
    • El objetivo es ofrecer a responsables de defensa verificados herramientas para trabajo legítimo de seguridad con menos fricción
    • Enlace de solicitud: chatgpt.com/cyber
  • También se incluye la colaboración con socios gubernamentales
    • Se está explorando junto con ellos cómo la IA avanzada puede apoyar a responsables públicos que defienden infraestructura crítica, como sistemas digitales para proteger datos fiscales, redes eléctricas y el suministro de agua potable de las comunidades
  • Las capacidades biological/chemical y de cybersecurity de GPT-5.5 están clasificadas como High dentro del Preparedness Framework
    • Aunque no ha alcanzado un nivel Critical en capacidad de cybersecurity, las evaluaciones y pruebas confirmaron capacidades en cyber un nivel por encima de GPT-5.4
  • Antes del lanzamiento pasó por todo el safety and governance process
    • Esto incluyó evaluaciones de preparedness, pruebas por dominio, nuevas evaluaciones dirigidas a biology y cybersecurity avanzados, y pruebas rigurosas con expertos externos
    • Los detalles están disponibles en la GPT-5.5 system card
  • Este enfoque forma parte de una estrategia de AI resilience necesaria para la era de modelos más poderosos
    • También hay que poner la IA potente en manos de quienes defienden sistemas, instituciones y al público, y se plantea como vía clave un acceso basado en confianza, safeguards que se refuercen en proporción a la capacidad y capacidad operativa para detectar y responder a abusos graves

Planes disponibles y precios

  • Actualmente, en ChatGPT y Codex, GPT-5.5 se está desplegando para usuarios Plus, Pro, Business y Enterprise, y GPT-5.5 Pro se ofrece en ChatGPT para Pro, Business y Enterprise
  • En ChatGPT, GPT-5.5 Thinking está disponible para Plus, Pro, Business y Enterprise
    • GPT-5.5 Pro apunta a preguntas más difíciles y mayor precisión, y está disponible en Pro, Business y Enterprise
  • En Codex, GPT-5.5 está disponible en los planes Plus, Pro, Business, Enterprise, Edu y Go, y tiene una ventana de contexto de 400K
    • También se ofrece Fast mode, con una velocidad de generación de tokens 1.5 veces mayor y un costo 2.5 veces superior
  • gpt-5.5 para desarrolladores de API estará disponible pronto en Responses API y Chat Completions API
    • Se indica un precio de 5 dólares por 1M tokens de entrada, 30 dólares por 1M tokens de salida y una ventana de contexto de 1M
    • Batch y Flex se ofrecen a la mitad de la tarifa estándar de API, y Priority processing con una tarifa 2.5 veces mayor
  • gpt-5.5-pro también llegará a la API, con el objetivo de ofrecer mayor precisión
    • Figura con un precio de 30 dólares por 1M tokens de entrada y 180 dólares por 1M tokens de salida
    • La información completa de precios está enlazada en la pricing page
  • GPT-5.5 es más caro que GPT-5.4, pero también ofrece mayor inteligencia y eficiencia de tokens
    • En Codex, la experiencia se ajustó para que, para la mayoría de los usuarios, entregue mejores resultados con menos tokens que GPT-5.4
    • Se seguirá ofreciendo un uso generoso en todos los niveles de suscripción

Benchmarks detallados

  • Coding

    • En SWE-Bench Pro (Public), GPT-5.5 obtuvo 58.6%, GPT-5.4 57.7%, Claude Opus 4.7 64.3% y Gemini 3.1 Pro 54.2%
    • En Terminal-Bench 2.0, GPT-5.5 obtuvo 82.7%, GPT-5.4 75.1%, Claude Opus 4.7 69.4% y Gemini 3.1 Pro 68.5%
    • Expert-SWE (Internal) muestra a GPT-5.5 con 73.1% y a GPT-5.4 con 68.5%
  • Trabajo profesional

    • En GDPval (wins or ties), GPT-5.5 obtuvo 84.9%, GPT-5.4 83.0%, GPT-5.5 Pro 82.3%, GPT-5.4 Pro 82.0%, Claude Opus 4.7 80.3% y Gemini 3.1 Pro 67.3%
    • En FinanceAgent v1.1, GPT-5.5 obtuvo 60.0%, GPT-5.4 56.0%, GPT-5.4 Pro 61.5%, Claude Opus 4.7 64.4% y Gemini 3.1 Pro 59.7%
    • En Investment Banking Modeling Tasks (Internal), GPT-5.5 obtuvo 88.5%, GPT-5.4 87.3%, GPT-5.5 Pro 88.6% y GPT-5.4 Pro 83.6%
    • En OfficeQA Pro, GPT-5.5 obtuvo 54.1%, GPT-5.4 53.2%, Claude Opus 4.7 43.6% y Gemini 3.1 Pro 18.1%
  • Uso de computadora y visión

    • En OSWorld-Verified, GPT-5.5 obtuvo 78.7%, GPT-5.4 75.0% y Claude Opus 4.7 78.0%
    • En MMMU Pro (no tools), GPT-5.5 y GPT-5.4 empatan con 81.2%, mientras que Gemini 3.1 Pro obtuvo 80.5%
    • En MMMU Pro (with tools), GPT-5.5 obtuvo 83.2% y GPT-5.4 82.1%
  • Uso de herramientas

    • En BrowseComp, GPT-5.5 obtuvo 84.4%, GPT-5.4 82.7%, GPT-5.5 Pro 90.1%, GPT-5.4 Pro 89.3%, Claude Opus 4.7 79.3% y Gemini 3.1 Pro 85.9%
    • En MCP Atlas, GPT-5.5 obtuvo 75.3%, GPT-5.4 70.6%, Claude Opus 4.7 79.1% y Gemini 3.1 Pro 78.2%
    • En Toolathlon, GPT-5.5 obtuvo 55.6%, GPT-5.4 54.6% y Gemini 3.1 Pro 48.8%
    • En Tau2-bench Telecom, con base en el prompt original, GPT-5.5 obtuvo 98.0% y GPT-5.4 92.8%
    • La nota de MCP Atlas indica que son resultados posteriores a la actualización más reciente de abril de 2026 de Scale AI
    • La nota de Tau2-bench Telecom especifica que se evaluó sin prompt adjustment y que se excluyeron los resultados con prompt adjustment de otros laboratorios
  • Académico

    • En GeneBench, GPT-5.5 obtuvo 25.0%, GPT-5.4 19.0%, GPT-5.5 Pro 33.2% y GPT-5.4 Pro 25.6%
    • En FrontierMath Tier 1–3, GPT-5.5 obtuvo 51.7%, GPT-5.4 47.6%, GPT-5.5 Pro 52.4%, GPT-5.4 Pro 50.0%, Claude Opus 4.7 43.8% y Gemini 3.1 Pro 36.9%
    • En FrontierMath Tier 4, GPT-5.5 obtuvo 35.4%, GPT-5.4 27.1%, GPT-5.5 Pro 39.6%, GPT-5.4 Pro 38.0%, Claude Opus 4.7 22.9% y Gemini 3.1 Pro 16.7%
    • En BixBench, GPT-5.5 obtuvo 80.5% y GPT-5.4 74.0%
    • En GPQA Diamond, GPT-5.5 obtuvo 93.6%, GPT-5.4 92.8%, GPT-5.4 Pro 94.4%, Claude Opus 4.7 94.2% y Gemini 3.1 Pro 94.3%
    • En Humanity's Last Exam (no tools), GPT-5.5 obtuvo 41.4%, GPT-5.4 39.8%, GPT-5.5 Pro 43.1%, GPT-5.4 Pro 42.7%, Claude Opus 4.7 46.9% y Gemini 3.1 Pro 44.4%
    • En Humanity's Last Exam (with tools), GPT-5.5 obtuvo 52.2%, GPT-5.4 52.1%, GPT-5.5 Pro 57.2%, GPT-5.4 Pro 58.7%, Claude Opus 4.7 54.7% y Gemini 3.1 Pro 51.4%
  • Ciberseguridad

    • En Capture-the-Flags challenge tasks (Internal), GPT-5.5 obtuvo 88.1% y GPT-5.4 83.7%
    • En CyberGym, GPT-5.5 obtuvo 81.8%, GPT-5.4 79.0% y Claude Opus 4.7 73.1%
    • La nota indica que son resultados que amplían el CTF más difícil descrito en la system card y añaden más desafíos de alta dificultad
  • Contexto largo

    • En Graphwalks BFS 256k f1, GPT-5.5 obtuvo 73.7%, GPT-5.4 62.5% y Claude Opus 4.7 76.9%
    • En Graphwalks BFS 1mil f1, GPT-5.5 obtuvo 45.4%, GPT-5.4 9.4% y Claude Opus 4.6 41.2%
    • En Graphwalks parents 256k f1, GPT-5.5 obtuvo 90.1%, GPT-5.4 82.8% y Claude Opus 4.7 93.6%
    • En Graphwalks parents 1mil f1, GPT-5.5 obtuvo 58.5%, GPT-5.4 44.4% y Claude Opus 4.6 72.0%
    • OpenAI MRCR v2 8-needle se presenta por longitud de contexto: 4K-8K 98.1%, 8K-16K 93.0%, 16K-32K 96.5%, 32K-64K 90.0%, 64K-128K 83.1%, 128K-256K 87.5%, 256K-512K 81.5% y 512K-1M 74.0%
    • En el mismo apartado, GPT-5.4 obtuvo respectivamente 97.3%, 91.4%, 97.2%, 90.5%, 86.0%, 79.3%, 57.5% y 36.6%
    • En el rango 128K-256K aparece Claude Opus 4.7 con 59.2%, y en el rango 512K-1M aparece Claude Opus 4.7 con 32.2%
  • Razonamiento abstracto

    • En ARC-AGI-1 (Verified), GPT-5.5 obtuvo 95.0%, GPT-5.4 93.7%, GPT-5.4 Pro 94.5%, Claude Opus 4.7 93.5% y Gemini 3.1 Pro 98.0%
    • En ARC-AGI-2 (Verified), GPT-5.5 obtuvo 85.0%, GPT-5.4 73.3%, GPT-5.4 Pro 83.3%, Claude Opus 4.7 75.8% y Gemini 3.1 Pro 77.1%
    • Se indica que las evaluaciones de la familia GPT se realizaron en un entorno de investigación con reasoning effort configurado en xhigh, y que en algunos casos la salida puede diferir ligeramente de la de ChatGPT en producción

1 comentarios

 
GN⁺ 6 일 전
Opiniones en Hacker News
  • Lo de decir en NVIDIA que perder acceso a GPT-5.5 se siente como perder una extremidad suena mucho más inquietante de lo que probablemente pretendían
    Parece aplicarse a toda esta dependencia de los modelos frontier para programar, y cuanto mejor rinden, más rápido uno empieza a apoyarse en ellos al programar
    Habiéndolo vivido en carne propia, la sensación es bastante incómoda. Ahora mismo, en vez de armarme de paciencia y programar a mano, resolverlo de una sola vez con el modelo es como 10 veces más rápido, y mi papel también cambió
    Que pueda hacer que muchas más cosas funcionen es increíble, pero cuando se acaban los tokens, el trabajo en la práctica también se detiene
    Cuando Claude se cae, me da más apalancamiento salir a caminar que forzarme a escribir código. Si una hora después Claude ya volvió, avanzo más que quedándome atorado con el código que generó el LLM e intentando resolver el problema manualmente hasta agotarme
    En fin, que esta situación siga así me inquieta un poco

    • Se siente como si la teoría del trabajo misma se estuviera dando vuelta por culpa de los LLM
      El mercado hoy se sostiene sobre la idea de que el trabajo está atomizado y tiene poco poder de negociación, mientras que el capital tiene mucho más poder y en la práctica ha fijado el precio del trabajo
      Pero, ¿qué pasa si ese trabajo lo provee otra empresa aún más grande, y además puede cortar ese suministro indefinidamente, a diferencia del trabajo tradicional?
      Ahora el trabajo se volvió otra forma de capital, y el capital no necesita comer
      Las empresas que no usen modelos propios probablemente lo van a aprender por las malas
    • También se puede ver como algo no tan distinto de usar abstracciones de librerías
      Construyes más rápido, escribes menos código tú mismo, y la gestión de estado interno o de memoria la hace la librería por ti
      Habrá quien se sienta incómodo dependiendo de llamadas a librerías en vez de manipular punteros y malloc() directamente, pero para otros es liberador porque les permite enfocarse en arquitectura de más alto nivel sin hundirse en cambios de contexto de bajo nivel
    • Hay una forma intencional de usarlo para no cavar mi tumba demasiado rápido
      A menudo le pido que me haga un CLI autónomo o una herramienta, en lugar de darme una respuesta ya terminada
      También le pregunto cómo llegó a esa conclusión para ampliar mi propia perspectiva, y le hago explicar incluso su forma de clasificar a nivel de metadatos
      Especialmente en codebases grandes, donde la dificultad está menos en el concepto que en el tamaño del grafo de referencias, intento usar esto de una forma que mejore mi capacidad de resolver problemas
    • Si los modelos locales se mantienen a una distancia razonable de los modelos hosteados más recientes, por ejemplo quedándose apenas unos 12 meses atrás, y además el hardware local sigue siendo accesible, entonces el riesgo podría ser limitado
      Porque aunque desaparezcan los modelos hosteados o se vuelvan demasiado caros, solo perderías esa pequeña diferencia de rendimiento
      Claro, ninguna de esas dos suposiciones es para nada obvia, así que más bien es un deseo
    • Pensando en los intereses bursátiles de NVIDIA y OpenAI, tampoco sorprende tanto que digan algo así
      Y honestamente, que todavía se siga repitiendo el lema de la productividad 10x cuesta creerlo
  • El lanzamiento de GPT-5.5 es hoy, pero dicen que la llegada a ChatGPT y Codex se hará de forma gradual durante varias horas
    Por estabilidad del servicio lo van habilitando por etapas como en lanzamientos anteriores, normalmente empezando por Pro/Enterprise y luego bajando a Plus
    Puede que no te aparezca de inmediato, así que recomiendan volver a revisar más tarde
    Esperar al azar puede ser frustrante, pero dicen que lo hacen por estabilidad
    Aclara que trabaja en OpenAI

    • Probé OpenClaw con GPT-5.4 API xhigh, y no había manera de lograr que el modelo hiciera el trabajo
      Quise usarlo como reemplazo después del OAuthgate de Anthropic, pero no lograba completar ni subtareas rápidas, seguras e inofensivas
      La conversación terminaba en un bucle de disculpas del tipo “debí haber hecho X aquí” “cierto, fallé” “entonces hazlo ahora” “debí hacerlo, pero no lo hice”
      Más tarde GLM, Kimi y Minimax lo resolvieron sin problema, lo que lo hizo aún más absurdo, así que no me quedó otra que descartar OpenAI de inmediato
    • Un dashboard público de rollout reduciría muchísimo la confusión
      Mejor aún si la UI mostrara que el modelo existe pero todavía no está habilitado para mi cuenta
      Lo ideal sería hasta tener un ETA, aunque supongo que sería difícil predecirlo si surgen problemas durante el rollout
    • Felicidades por el lanzamiento
      Tengo curiosidad por saber si Images 2.0 también se está habilitando dentro de ChatGPT, o si por un tiempo seguirá siendo una función solo de API/Playground
    • Como usuario Plus, me cuesta animarme a probar Codex sin saber cuánto va a consumir del límite de uso
    • Me pregunto si también saldrá pronto el fine-tuning de GPT-5.5
  • Todavía no hay acceso oficial por API, pero últimamente OpenAI parece estar tolerando de hecho el backdoor de la API de Codex que usa OpenClaw
    https://twitter.com/steipete/status/2046775849769148838 y https://twitter.com/romainhuet/status/2038699202834841962
    Ese backdoor API ya incluye GPT-5.5
    Así que corrí el ejemplo del pelícano en https://simonwillison.net/2026/Apr/23/gpt-5-5/#and-some-peli...
    usando el nuevo plugin para LLM https://github.com/simonw/llm-openai-via-codex
    Más tarde subí el reasoning effort a xhigh y salió un pelícano mucho mejor
    https://gist.github.com/simonw/a6168e4165a258e4d664aeae8e602...

    • El pelícano con modelo local que publicaste ayer se veía mejor que este
      Aunque bueno, este al menos da risa porque tiene las patas cruzadas
    • Esto honestamente está muy mal
      Ya van por la versión 5.5 y todavía no puede dibujar bien ni un cuadro básico de bicicleta
      La rueda delantera no podría girar hacia un lado de esa forma, y el dibujo no lo refleja bien
    • Que con la configuración por defecto haya usado solo 39 reasoning tokens para lograr eso es bastante sorprendente
      No sé exactamente qué son los reasoning tokens, pero de cualquier forma el número de tokens se ve impactantemente bajo
    • Me pregunto si este tipo de uso directo de la API está permitido según los términos
      Recuerdo que a Anthropic le molestaba muchísimo este tipo de uso
    • Me intriga por qué dibuja mucho peor que otras cosas publicadas recientemente
      Incluso modelos locales open weight como Qwen que mostraron ayer se veían mejor
  • Todos estaban hablando del gating de Mythos de Anthropic y del marketing del 83% en CyberGym, pero OpenAI simplemente soltó GPT-5.5 y marcó 82%
    Que cualquiera pueda probarlo importa mucho más
    Si trabajas en ciberseguridad ofensiva/defensiva, me parece más útil ponerle las manos encima a un modelo realmente publicado que quedarse con marketing inflado
    Nunca pensé decir esto, pero ahora OpenAI vuelve a verse como la opción más abierta

    • El verdadero hype fue cuando todos se dieron cuenta de que apenas Anthropic anunciara Mythos, OpenAI iba a sacar un competidor en cuestión de semanas y Sam ni siquiera iba a bloquear el acceso
      Por eso el sector de seguridad entró en pánico: sentían que quedaban apenas unas dos semanas para contener nuevos zero-days, y que después podía abrirse una temporada abierta en la que los black hats encontrarían y explotarían un montón
    • Comparado con Anthropic, OpenAI siempre fue más abierto
      Anthropic nunca ha publicado un modelo abierto, nunca liberó voluntariamente el código fuente de Claude Code, ni tampoco su tokenizer
    • Da la impresión de que OpenAI se enoja si le haces preguntas de ciberseguridad, te pide subir una identificación oficial del gobierno y, si no lo haces, te enruta silenciosamente a un modelo peor
      La documentación incluso dice que las tareas de ciberseguridad pueden hacer fallback a GPT-5.2 si las detecta el sistema automático
      https://developers.openai.com/codex/concepts/cyber-safety
      https://chatgpt.com/cyber
    • Yo ignoro por completo las noticias de hype
      Anthropic me parece casi la encarnación del bluff
      Después de leer a Cialdini hace tiempo, todo el montaje al estilo Anthropic me aburre
      En cambio OpenAI es muy astuto. Cuando Claude despegó, desapareció un tiempo de los titulares, pero ahora, gracias a su enorme base de usuarios, le basta con seguir el ritmo de lanzamientos de Anthropic para hacer que el otro se vea ridículo
      Desde la perspectiva de Anthropic, cada nueva versión de GPT que sale debe sentirse más humillante, y da la impresión de que OpenAI va a terminar dominándolo todo
    • También me da la impresión de que OpenAI redirige las preguntas de ciberseguridad a un modelo más tonto
  • Ojalá vieran la sección de precios/límites de uso de esta página
    https://developers.openai.com/codex/pricing?codex-usage-limi...
    Basta con ver la diferencia de Local Messages entre 5.3, 5.4 y 5.5
    Leí el argumento de que 5.5 es más eficiente y por eso queda cerca del punto de equilibrio con 5.4, pero en cualquier caso la tendencia parece clara: límites más duros y precios más altos

    • En API, el precio de GPT-5.5 es el doble que GPT-5.4, cerca de 4 veces GPT-5.1 y unas 10 veces Kimi-2.6
      La lección que aparentemente sacaron del caso Anthropic es que los desarrolladores se vuelven dependientes, incluso adictos, a los agentes de programación muy rápido, así que están dispuestos a pagar lo que sea por mejoras aunque sean pequeñas
  • El prototipo de arena de mazmorra 3D hecho con Codex y GPT se ve bastante convincente
    Dicen que Codex se encargó de la arquitectura del juego, la implementación en TypeScript/Three.js, el sistema de combate, los encuentros con enemigos y el feedback del HUD, mientras que GPT generó las texturas del entorno y los modelos y animaciones de los personajes salieron de herramientas externas de generación de assets
    Probablemente parte de por qué se ve bien es que la malla no la hizo GPT-5.5 directamente, sino otra herramienta separada
    Viendo esto, parece que se viene una era parecida a la de Flash, donde gamers y desarrolladores aficionados pueden crear rápido conceptos de juego y publicarlos enseguida en la web
    Especialmente con Three.js, que ni siquiera es un motor de juegos pero da la impresión de estar volviéndose una herramienta casi central para diseñarlos con IA

    • Llevo 3 años probando Three.js con IA de forma constante, y con 5.4 sentí un salto especialmente grande
      Solo en el caso de Three.js, fue el mayor salto generacional individual que he visto, especialmente en shaders GLSL, y también mejoró la estructuración de escenas divididas en varias páginas/componentes
      Todavía es difícil generar un shader completo desde cero, pero ya es bastante útil para modificar shaders existentes
      En 5.2 o menos era realmente malo para el patrón one canvas, multiple page, donde mantienes un solo canvas de fondo a través de varias rutas, pero 5.4, aunque todavía necesita algo de guía, responde mucho mejor a prompts de refactorización y optimización
      Tengo ganas de probar qué tal sale 5.5 en la práctica
    • La era tipo Flash ya llegó desde hace rato; el cuello de botella siempre fue la creatividad
    • He recibido mucha ayuda de LLM en juegos y proyectos basados en Three.js, con buenos resultados
      Mi visualización rara de reloj también dependió bastante de eso
      No es un motor de juegos, pero para hacer 3D WebGL en la web es prácticamente el estándar, y por los años que lleva existe una enorme cantidad de datos de entrenamiento
      Antes de los LLM dependía más de Babylon.js, que tiene funciones de nivel más alto
    • Un conocido está haciendo Jamboree
      Antes se llamaba Spielwerk y es una app para crear y compartir juegos en iOS
      Todo está basado en web, así que compartirlo es fácil
      https://apps.apple.com/uz/app/jamboree-game-maker/id67473110...
    • Los LLM todavía no pueden hacer razonamiento espacial
      No he probado GPT, pero con Claude, por más prompt engineering que le hice, no pudo resolver un cubo de Rubik, y hasta Opus 4.6 solo acertó más o menos el 70% del rompecabezas antes de trabarse
      Además cuesta unos 20 dólares por intento, así que tampoco es sostenible
      Si se lograra un razonamiento tridimensional de verdad, probablemente se podría extender el mismo enfoque a problemas matemáticos que hoy no se pueden resolver
      Estoy pensando en publicar mi servidor MCP de Rubik's Cube para retar a la gente a ver si alguien logra resolver el cubo solo con prompts
  • De este anuncio, más que los benchmarks, me pareció más interesante la parte donde dicen que Codex analizó varias semanas de patrones reales de tráfico, elevó la utilización de GPU y escribió algoritmos heurísticos personalizados para dividir y balancear trabajo, logrando aumentar la velocidad de generación de tokens en más de 20%
    Este tipo de optimización de eficiencia computacional por parte de LLM agénticos parece tener muchísimo impacto, pero se prueba menos que los benchmarks
    Por mi experiencia, en esto Opus todavía va mejor que GPT/Codex, pero como OpenAI está obteniendo beneficios reales maximizando rendimiento bajo presión de costos y capacidad, imagino que van a seguir empujando en esa dirección

    • Estaba haciendo procesamiento de datos de alto rendimiento en Rust y me topé con una barrera donde necesitaba mejorar más de 100x
      Me acordé de aquella famosa optimización de código golf de Intel para FizzBuzz, así que le pasé mi código a gemini pro y le pedí “sugiéreme optimizaciones ingeniosas de ese estilo”, y las propuestas fueron realmente excelentes
      Los LLM siguen sorprendiéndome todos los días
    • Ya existe KernelBench para evaluar optimización de kernels CUDA
      Y además todas las empresas saben que optimizar su propia infraestructura y sus modelos es una vía clave para ganar la competencia, así que asumo que esto se lo están tomando muy en serio
    • El problema con afirmaciones como esta es que son demasiado empíricas y difíciles de reproducir
      Me alegra que se salga de benchmarks tradicionales como MMLU, pero dar cifras así sin experimentos con controles adecuados no ayuda demasiado
  • Si comparas Mythos vs GPT-5.5 por números, la diferencia sigue siendo grande en SWE-bench Pro, pero en lo demás se ven bastante parejos
    SWE-bench Pro 77.8% vs 58.6%
    Terminal-bench-2.0 82.0% vs 82.7%
    GPQA Diamond 94.6% vs 93.6%
    H. Last Exam 56.8% vs 41.4%
    H. Last Exam (tools) 64.7% vs 52.2%
    BrowseComp 86.9% vs 84.4%, Pro 90.1%
    OSWorld-Verified 79.6% vs 78.7%
    La fuente de los números de Mythos es https://www.anthropic.com/glasswing

    • Mythos solo importa cuando realmente se puede usar
      Si pruebas Opus 4.7 ahora mismo, la autonomía se siente fuertemente nerfeada y muy restringida por la llamada seguridad
      Así que no tengo mucha confianza en que sea tan impresionante en la práctica como lo vende Anthropic
    • Según la página de lanzamiento de Anthropic, el equipo de Claude confirmó memorización de SWE-bench, y que el test efectivamente estaba en los datos de entrenamiento
      Está aquí
      https://www.anthropic.com/news/claude-opus-4-7#:~:text=memor...
    • Estuve mirando un poco SWE-bench Verified, y los números de Mythos dejan varias dudas
      Si tomas los envíos oficiales en https://github.com/SWE-bench/experiments/tree/main/evaluatio... y sumas solo modelos desde Sonnet 4 en adelante sobre el total de 500 problemas, la tasa de resolución combinada de todos los modelos daba exactamente 93%
      Entonces, que Mythos haya marcado 93.7% implicaría que resolvió problemas que ningún otro modelo pudo resolver, y al revisar esos problemas la cosa se veía todavía más sospechosa
      El 7% restante parecía prácticamente imposible de resolver sin haber visto de antemano el patch de prueba, y la solución real se desviaba tanto del enunciado que daba la impresión de estar resolviendo otro problema por completo
      No estoy diciendo que Mythos haya hecho trampa, pero sí que quizá recuerda demasiado bien distintos estados del repositorio y es capaz de inferir el verdadero enunciado del problema solo a partir de diffs memorizados internamente
      De otro modo cuesta explicar cómo interpreta con tanta precisión descripciones tan ambiguas
    • Un benchmark único no significa nada
      En todos los benchmarks siempre terminan saliendo resultados raros
  • Sigue decepcionándome que todavía tenga una tasa de alucinación del 86%
    En comparación, Opus anda por 36%
    La fuente es https://artificialanalysis.ai/models?omniscience=omniscience...

    • Que Grok esté en 17% y sea el más bajo, mientras la mayoría de modelos está por encima de 80%, se siente rarísimo
      Según la pregunta, la alucinación a veces parece estar más cerca del 100%, así que este benchmark no resulta intuitivamente muy convincente
    • Aquí hay algo raro; no parece creíble que Haiku salga tan bien parado
    • Esto se lee como una señal de que las empresas quieren ese comportamiento
      Es probable que quien pregunta no entienda del todo el problema, así que parece preferir una respuesta segura y confiada sin importar el resultado
      El objetivo parecería ser vender una impresión de competencia más que la capacidad real de la tecnología
      Los LLM pueden terminar arruinando un producto, pero si la máquina de pensar de un multimillonario puede reemplazar empleados y te dicen que gastes ahí el 75% del presupuesto laboral, pues allá ellos si quieren que los estafen con gusto
  • Este modelo es muy fuerte para tareas de largo plazo, y ahora Codex incluso tiene heartbeats para poder seguir revisando su estado
    Dice que si le das un problema difícil que tarde horas, con restricciones verificables, ahí se nota lo bueno que es
    Aclara que trabaja en OpenAI

    • Suena a muy buena función y tengo ganas de probarla pronto
      Últimamente estoy cansado de que otros modelos, sobre todo Opus, se queden parados a media tarea
    • En evaluaciones internas de Canva, GPT-5.5 resolvió muchos desafíos frontier de tareas largas, y en varios casos fue el primer modelo de IA que probamos en lograrlo
      Felicidades por el lanzamiento
    • Haría falta explicar qué son exactamente los heartbeats