OpenAI lanza GPT-5.5 y GPT-5.5 Pro en la API
(developers.openai.com)- GPT-5.5 es el modelo más reciente agregado a Chat Completions API y Responses API, y GPT-5.5 pro también se añadió a las solicitudes de Responses API para problemas difíciles donde contar con más cómputo resulta ventajoso
- Ofrece amplio soporte para ventana de contexto de 1 millón de tokens, entrada de imágenes, salidas estructuradas, llamadas a funciones, prompt caching, Batch, tool search, computer use integrado, hosted shell, apply patch, Skills, MCP y búsqueda web
- El valor predeterminado de reasoning effort se estableció en
medium, y cuandoimage_detailno está configurado o está enauto, se mantiene el comportamiento anterior - El caching de GPT-5.5 solo funciona con extended prompt caching y no admite in-memory prompt caching
- La reciente serie de cambios en la API ya va más allá de los lanzamientos de modelos y se extiende a image, audio, realtime, video y herramientas para agents; la familia GPT-5.5 se ubica entre las incorporaciones principales más recientes
Registro de cambios
- Los elementos cuyo soporte se descontinuará próximamente pueden consultarse en una página aparte
Abril de 2026
-
24 de abril
- Se lanzó GPT-5.5 en Chat Completions API y Responses API, y también se agregó GPT-5.5 pro a las solicitudes de Responses API para problemas difíciles donde más cómputo resulta ventajoso
- GPT-5.5 admite una ventana de contexto de 1 millón de tokens, entrada de imágenes, salidas estructuradas, llamadas a funciones, prompt caching, Batch, tool search, computer use integrado, hosted shell, apply patch, Skills, MCP y búsqueda web
- Como cambio principal, el valor predeterminado de reasoning effort se estableció en
medium - Cuando
image_detailno está configurado o está enauto, se usa el comportamiento anterior - El caching de GPT-5.5 solo funciona con extended prompt caching y no admite in-memory prompt caching
- Más detalles: behavioral changes
-
21 de abril
- Se lanzó GPT Image 2 como el modelo de generación de imágenes más reciente para creación y edición de imágenes
- GPT Image 2 incluye tamaños de imagen flexibles, entrada de imágenes de alta fidelidad, cobro de imágenes basado en tokens y soporte para Batch API con 50% de descuento
-
15 de abril
- Se agregaron nuevas funciones a Agents SDK
- Es posible ejecutar agents en un sandbox controlado
- Se puede inspeccionar y personalizar el harness de código abierto
- Se puede controlar cuándo se crea la memory y dónde se almacena
- Se agregaron nuevas funciones a Agents SDK
Marzo de 2026
-
17 de marzo
- Se lanzaron GPT-5.4 mini y GPT-5.4 nano en Chat Completions API y Responses API
- GPT-5.4 mini ofrece rendimiento de nivel GPT-5.4 en una forma más rápida y eficiente, orientada a cargas de trabajo de alto volumen
- GPT-5.4 nano está optimizado para tareas simples de gran volumen donde la velocidad y el costo son lo más importante
- GPT-5.4 mini admite tool search, computer use integrado y compaction
- GPT-5.4 nano admite compaction, pero no tool search ni computer use
-
16 de marzo
- El slug gpt-5.3-chat-latest se actualizó para apuntar al modelo más reciente que usa actualmente ChatGPT
-
13 de marzo
- Se actualizó el codificador de imágenes para corregir un pequeño bug que ocurría en la entrada
input_imagede GPT-5.4 - Esto puede mejorar la calidad en algunos casos de uso de comprensión de imágenes
- No se requiere ninguna acción adicional
- Se actualizó el codificador de imágenes para corregir un pequeño bug que ocurría en la entrada
-
12 de marzo
- Se amplió la Sora API para agregar character reference reutilizable, generaciones más largas de hasta
20segundos, salida1080pparasora-2-pro, video extension y soporte de Batch API paraPOST /v1/videos - La generación en
1080pdesora-2-prose cobra a$0.70por segundo - Más detalles: video generation guide
- Se amplió la Sora API para agregar character reference reutilizable, generaciones más largas de hasta
-
Actualización del 12 de marzo
- Se agregó
POST /v1/videos/editspara editar videos existentes POST /v1/videos/{video_id}/remixes la ruta que esto reemplaza y su soporte se descontinuará en6meses- Más detalles: edit existing videos
- Se agregó
-
5 de marzo
- Se lanzó GPT-5.4 en Chat Completions API y Responses API, y se agregó GPT-5.4 pro a Responses API para problemas difíciles donde más cómputo resulta ventajoso
- Junto con esto se lanzó tool search para Responses API, lo que permite que el modelo posponga una surface grande de tools hasta el tiempo de ejecución para reducir el uso de tokens, preservar el rendimiento del caché y mejorar la latencia
- Se agregó a GPT-5.4 soporte para computer use integrado mediante la herramienta
computerde Responses API, lo que permite interacción de UI basada en capturas de pantalla - Para flujos de trabajo de agents de mayor duración, ofrece una ventana de contexto de 1 millón de tokens y soporte nativo para Compaction
-
3 de marzo
- Se lanzó
gpt-5.3-chat-latesten Chat Completions API y Responses API - Este modelo apunta al snapshot GPT-5.3 Instant que actualmente usa ChatGPT
- Más detalles: gpt-5.3-chat-latest
- Se lanzó
Febrero de 2026
-
24 de febrero
- Se amplió el alcance del soporte de
input_filepara poder recibir más formatos de archivos de documentos, presentaciones, hojas de cálculo, código y texto - Más detalles: file inputs
- Se amplió el alcance del soporte de
-
24 de febrero Responses API
- Se agregó
phasea la Responses API - Los mensajes del assistant ahora se etiquetan distinguiendo entre la explicación intermedia
commentaryy la respuesta finalfinal_answer - Más detalles: phase
- Se agregó
-
24 de febrero gpt-5.3-codex
- Se lanzó
gpt-5.3-codexen la Responses API - Más detalles: gpt-5.3-codex
- Se lanzó
-
23 de febrero
- Se incorporó WebSocket mode a la Responses API
- Más detalles: websocket mode
-
23 de febrero modelos de audio y en tiempo real
- Se lanzó
gpt-realtime-1.5en la Realtime API- Más detalles: gpt-realtime-1.5
- Se lanzó
gpt-audio-1.5en la Chat Completions API- Más detalles: gpt-audio-1.5
- Se lanzó
-
10 de febrero GPT Image Batch
- La Batch API ahora es compatible con
gpt-image-1.5,chatgpt-image-latest,gpt-image-1ygpt-image-1-mini
- La Batch API ahora es compatible con
-
10 de febrero gpt-5.2-chat-latest
- El slug de gpt-5.2-chat-latest se actualizó para apuntar al modelo más reciente que usa actualmente ChatGPT
-
10 de febrero compaction
- Se incorporó server-side compaction a la Responses API
-
10 de febrero Skills
- Se incorporó soporte para Skills en la Responses API
- Skills es compatible tanto con ejecución local como con ejecución basada en hosted container
-
10 de febrero Hosted Shell
- Se introdujo la nueva herramienta Hosted Shell y también se agregó soporte de red dentro del contenedor
-
9 de febrero
- Se agregó soporte para solicitudes
application/jsona/v1/images/editsdel modelo GPT image - Las solicitudes JSON usan referencias
image_urlofile_idparaimagesymaskopcional en lugar de multipart upload
- Se agregó soporte para solicitudes
-
3 de febrero
- Se optimizó la pila de inferencia para clientes de API, haciendo que GPT-5.2 y GPT-5.2-Codex se ejecuten aproximadamente un 40% más rápido
- El modelo y los pesos del modelo no cambian
Enero de 2026
-
15 de enero
- Se anunció Open Responses
- Es una especificación open source para una interfaz de LLM interoperable y multiproveedor construida sobre la Responses API de OpenAI
-
14 de enero
- Se lanzó
gpt-5.2-codexen la Responses API - GPT-5.2-Codex es una variante de GPT-5.2 optimizada para tareas de codificación agentic en Codex o entornos similares
- Más detalles: gpt-5.2-codex
- Se lanzó
-
13 de enero Realtime SIP
- Se agregó un rango de IP de SIP dedicado a la Realtime API
sip.api.openai.comrealiza enrutamiento GeoIP y envía el tráfico SIP a la región más cercana- Más detalles: dedicated SIP IP ranges
-
13 de enero actualización de slugs de modelos
- Los slugs de gpt-realtime-mini y gpt-audio-mini se actualizaron para apuntar al snapshot
2025-12-15 - Si necesitas snapshots de modelos anteriores, puedes usar
gpt-realtime-mini-2025-10-06ygpt-audio-mini-2025-10-06 - El slug de sora-2 se actualizó para apuntar a
sora-2-2025-12-08 - Si necesitas el snapshot anterior de
sora-2, puedes usarsora-2-2025-10-06 - Los slugs de
gpt-4o-mini-ttsygpt-4o-mini-transcribese actualizaron para apuntar al snapshot2025-12-15 - Si necesitas snapshots de modelos anteriores, puedes usar
gpt-4o-mini-tts-2025-03-20ygpt-4o-mini-transcribe-2025-03-20 - Actualmente, para obtener los mejores resultados, se recomienda usar
gpt-4o-mini-transcribeen lugar degpt-4o-transcribe
- Los slugs de gpt-realtime-mini y gpt-audio-mini se actualizaron para apuntar al snapshot
-
9 de enero
- Se corrigió un problema en
/v1/images/editsdondegpt-image-1.5ychatgpt-image-latestusaban por error high fidelity incluso cuandofidelityse configuraba explícitamente enlow
- Se corrigió un problema en
Diciembre de 2025
-
19 de diciembre
- Se agregan
gpt-image-1.5ychatgpt-image-latesta la herramienta de generación de imágenes de la Responses API
- Se agregan
-
16 de diciembre
- Se lanzan gpt-image-1.5 y chatgpt-image-latest como los modelos avanzados más recientes de generación de imágenes
- Más información: image generation guide
-
15 de diciembre
- Se lanzan cuatro nuevos snapshots de audio con fecha
- Esta actualización mejora la confiabilidad, la calidad y la fidelidad de voz de las aplicaciones en tiempo real basadas en voz
- Más información: updates audio models
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15- Este lanzamiento también incluye soporte para Custom voices para clientes elegibles
-
11 de diciembre GPT-5.2
- Se lanza GPT-5.2 como el modelo flagship más reciente de la familia GPT-5
- Frente a GPT-5.1, mejora la inteligencia general, el seguimiento de instrucciones, la precisión y la eficiencia de tokens, la multimodalidad especialmente en visión, la generación de código especialmente de UI frontend, el tool calling y la gestión de contexto en la API, y la comprensión y generación de hojas de cálculo
- Se agregan el nivel de reasoning effort
xhigh, un reasoning summary conciso y una nueva gestión de contexto con compaction
-
11 de diciembre client-side compaction
- Se lanza client-side compaction
- En conversaciones de larga duración de la Responses API, se puede reducir el contexto enviado en cada turno con el endpoint
/responses/compact
-
4 de diciembre
- Se lanza
gpt-5.1-codex-maxen la Responses API - GPT-5.1-Codex es el modelo de codificación más inteligente, optimizado para tareas de agentic coding de horizonte largo
- Más información: gpt-5.1-codex-max
- Se lanza
Noviembre de 2025
-
20 de noviembre
- Se agrega soporte para entrada de teclas DTMF en la Realtime API
- Se pueden recibir eventos DTMF mientras se usa una conexión sideband de Realtime
- Más información: dtmf_event_received
-
13 de noviembre GPT-5.1
- Se lanza GPT-5.1 como el modelo flagship más reciente de la familia GPT-5
- Fue entrenado para destacar especialmente en steerability, respuestas más rápidas en situaciones que requieren menos pensamiento, generación de código y casos de uso de programación, y workflows agénticos
- GPT-5.1 usa por defecto la nueva configuración de reasoning
nonepara responder más rápido en situaciones que requieren menos pensamiento - Este valor predeterminado es distinto del valor anterior
mediumde GPT-5
-
13 de noviembre RBAC
- Se lanzan controles de acceso basados en roles mejorados
- RBAC permite definir quién puede hacer qué en toda la organización y los proyectos, tanto en la API como en el Dashboard
-
13 de noviembre GPT-5.1-Codex
- Se lanzan
gpt-5.1-codexygpt-5.1-codex-minien la Responses API - GPT-5.1-Codex es una variante de GPT-5.1 optimizada para tareas de agentic coding en Codex o entornos similares
- Más información: gpt-5.1-codex
- Se lanzan
-
13 de noviembre extended prompt caching
- Se lanza extended prompt cache retention
- Mantiene activo el prefijo en caché por más tiempo, hasta 24 horas
- Cuando la memoria se llena, descarga los tensores key/value al almacenamiento local de la GPU para aumentar considerablemente la capacidad de almacenamiento disponible para caché
Octubre de 2025
-
29 de octubre
gpt-oss-safeguard-120bygpt-oss-safeguard-20bson modelos de razonamiento de seguridad construidos sobre gpt-oss- Más detalles: gpt-oss-safeguard collection
-
24 de octubre
- Se lanzó Enterprise Key Management (EKM)
- EKM permite cifrar el contenido de los clientes dentro de OpenAI usando claves administradas en un Key Management System (KMS) externo
- También se lanzó UK data residency
-
6 de octubre OpenAI DevDay
- Se presentaron varias funciones en OpenAI DevDay
- Se lanzó gpt-5-pro
- Usa más cómputo que GPT-5 para pensar más a fondo y ofrecer respuestas consistentemente mejores
- Se lanzaron gpt-realtime-mini y gpt-audio-mini para un rendimiento speech-to-speech más rentable
- Se lanzó gpt-image-1-mini para generación y edición de imágenes más rentable
- Se lanzó v1/videos para generación de video y remix ricos, detallados y dinámicos con los modelos más recientes Sora 2 y Sora 2 Pro
- Se lanzó Agent Builder, que permite crear visualmente flujos de trabajo multi-agent personalizados
- Se lanzó ChatKit, una interfaz de chat embebible para desplegar agents
- Se lanzaron Trace Evals, Datasets, and Prompt Optimization tools
- Se agregó soporte para modelos de terceros en Evals
- Se lanzó Service health dashboard
-
1 de octubre
- Se lanzó IP allowlist
- Restringe el acceso a la API para permitir solo las direcciones IP o rangos especificados
Septiembre de 2025
-
26 de septiembre
- Se agregó soporte para imágenes y archivos en tool call output de la Responses API
-
23 de septiembre
- Se lanzó gpt-5-codex como modelo de propósito especial
- Fue construido y optimizado para el uso de Codex CLI
Agosto de 2025
-
28 de agosto
- OpenAI Realtime API se lanzó oficialmente
- Más detalles: Realtime API guide
-
21 de agosto
- Se agregó soporte para connectors en la Responses API
- Un connector es un wrapper de MCP mantenido por OpenAI para servicios populares como apps de Google y Dropbox, y puede usarse para dar al modelo acceso de lectura a los datos almacenados en esos servicios
-
20 de agosto
- Se lanzó la Conversations API
- Junto con la Responses API, permite crear y administrar conversaciones de larga duración
- La forma de migrar de una integración de Assistants API a Responses y Conversations, junto con una comparación lado a lado, puede consultarse en la migration guide
-
7 de agosto
- Se lanzaron en la API los modelos de la familia GPT-5 gpt-5, gpt-5-mini, gpt-5-nano
- Se introdujo el valor
minimalde reasoning effort para optimizar respuestas rápidas en los modelos GPT-5 con soporte de reasoning - Se introdujo el tipo de tool call
custom, que permite entradas y salidas de formato libre
Junio de 2025
-
27 de junio
- Se lanzó soporte para Priority processing
- Ofrece una latencia mucho menor y más consistente que Standard processing, manteniendo la flexibilidad de pago por uso
-
24 de junio
- Se lanzaron o3-deep-research y o4-mini-deep-research en la Responses API
- Están optimizados para análisis profundos y tareas de investigación como variantes de deep research de los modelos de razonamiento de la serie o
- Más información: deep research guide
- Se añadió soporte para el manejo asíncrono de eventos mediante webhooks
- Se redujo y simplificó el precio de la herramienta de búsqueda web
- Se añadió soporte para la web search tool
-
13 de junio
- Los nuevos reusable prompts ahora pueden usarse en el Dashboard y en la Responses API
- En la API, el parámetro
promptpuede referenciar plantillas creadas en el Dashboard y puede enviarse junto con eliddel prompt, unaversionopcional yvariablesdinámicas que pueden incluir entradas de texto, imagen y archivo - reusable prompts no se pueden usar en Chat Completions
- Más información: reusable prompts
-
10 de junio
-
4 de junio
- Se añadió soporte de fine-tuning con direct preference optimization a
gpt-4.1-2025-04-14,gpt-4.1-mini-2025-04-14ygpt-4.1-nano-2025-04-14
- Se añadió soporte de fine-tuning con direct preference optimization a
-
3 de junio
- Se ofrecieron nuevos snapshots de modelo de gpt-4o-audio-preview y gpt-4o-realtime-preview
- Se lanzó Agents SDK for TypeScript
Mayo de 2025
-
20 de mayo herramientas integradas
- Se añadieron nuevas herramientas integradas a la Responses API
- Incluyen remote MCP servers y code interpreter
- Más información: tools
-
20 de mayo schema
- En la Responses API y la Chat Completions API, ahora se puede usar el modo
stricten el schema de tools durante parallel tool calling con modelos no fine-tuned - También se añadieron nuevas schema features, incluyendo validación de cadenas para
emaily otros patrones, además de rangos para números y arreglos
- En la Responses API y la Chat Completions API, ahora se puede usar el modo
-
15 de mayo
- Se lanzó codex-mini-latest en la API
- Está optimizado para usar con Codex CLI
-
7 de mayo
- Se lanzó soporte para reinforcement fine-tuning
- Los métodos de fine-tuning disponibles pueden consultarse en la fine-tuning guide
- Se añadió gpt-4.1-nano como modelo compatible con fine-tuning
Abril de 2025
-
30 de abril
- Se lanzó soporte para Enhanced API Budget Alerts & Auto-recharge Limits
-
23 de abril
- Se añadió el modelo de generación de imágenes
gpt-image-1 - Este modelo mejora la calidad y el instruction following, y establece un nuevo estándar para la generación de imágenes
- Los endpoints de Image Generation y Edit también se actualizaron para admitir nuevos parámetros exclusivos de
gpt-image-1
- Se añadió el modelo de generación de imágenes
-
16 de abril
- Se añadieron
o3yo4-mini, dos modelos de razonamiento de la serie o, a la Chat Completions API y la Responses API - Establecen un nuevo estándar en matemáticas, ciencia, programación, tareas de razonamiento visual y redacción de documentación técnica
- También se lanzó Codex, una herramienta CLI para generación de código
- Se añadieron
-
14 de abril
- Se añadieron gpt-4.1, gpt-4.1-mini y gpt-4.1-nano a la API
- Ofrecen instruction following, programación y una ventana de contexto más grande de hasta 1 millón de tokens
gpt-4.1ygpt-4.1-minipermiten supervised fine-tuning- También se anunció la deprecación de gpt-4.5-preview
Marzo de 2025
-
20 de marzo
- Se agregaron los modelos
gpt-4o-mini-tts,gpt-4o-transcribe,gpt-4o-mini-transcribeywhisper-1a la Audio API
- Se agregaron los modelos
-
19 de marzo
-
11 de marzo
- Se lanzaron varios modelos y herramientas nuevas, además de una nueva API, para workflows agentic
- Se lanzó la Responses API para crear y usar agentes y herramientas
- Se lanzaron web search, file search y computer use como conjunto de herramientas integradas para la Responses API
- Se lanzó Agents SDK, un framework de orquestación para diseñar, construir e implementar agentes
- Se anunciaron los modelos
gpt-4o-search-preview,gpt-4o-mini-search-previewycomputer-use-preview - Se informó el plan de mover todas las funciones de la Assistants API a la Responses API, que es más fácil de usar, y se indicó que Assistants dejará de estar disponible en 2026 tras alcanzar paridad funcional completa
-
3 de marzo
- Se agregó soporte para el campo
metadataen los trabajos de fine-tuning
- Se agregó soporte para el campo
Febrero de 2025
-
27 de febrero
- Se lanzó GPT-4.5 como research preview en la Chat Completions API, la Assistants API y la Batch API
- GPT-4.5 se presenta como el modelo de chat más grande y con mejor rendimiento, y es más fuerte en trabajo creativo y agentic planning gracias a su alto EQ y comprensión de la intención del usuario
-
25 de febrero
- Se lanzó la API Usage Dashboard Update
- Refleja solicitudes de filtros de datos adicionales, como selección de proyecto, selector de fechas e intervalos de tiempo granulares
- Permite ver mejor el uso en distintos productos y niveles de servicio
-
5 de febrero
- Se introdujo la residencia de datos en Europa
- Más detalles: your data
Enero de 2025
-
31 de enero
- Se lanzó o3-mini como un modelo pequeño de razonamiento
- Está optimizado para tareas de ciencia, matemáticas y programación
-
21 de enero
- Se amplió el acceso al o1 model
- Los modelos de la familia o1 fueron entrenados con aprendizaje por refuerzo para realizar razonamiento complejo
Diciembre de 2024
-
18 de diciembre
- Se lanzó Admin API Key Rotations, lo que permite rotar programáticamente las admin API keys
- Se actualizó Admin API Invites para permitir invitar programáticamente a usuarios a proyectos al mismo tiempo que se les invita a la organización
-
17 de diciembre
- Se agregaron nuevos modelos, incluidos o1, gpt-4o-realtime y gpt-4o-audio
- Se agregó WebRTC como método de conexión en la Realtime API
- Se agregó el parámetro reasoning_effort al modelo o1
- Se agregó el rol de mensaje developer al modelo o1
o1-previewyo1-minino admiten mensajes system ni developer- Se lanzó Preference Fine-tuning con Direct Preference Optimization (DPO)
- Se lanzaron SDK beta para Go y Java
- Más detalles: libraries
- Se agregó soporte para la Realtime API en el Python SDK
-
4 de diciembre
- Se lanzó la Usage API
- Permite consultar programáticamente la actividad y el gasto en toda la OpenAI API
Noviembre de 2024
-
20 de noviembre
- Se lanzó gpt-4o-2024-11-20 en
v1/chat/completions - Es el modelo más reciente de la familia gpt-4o
- Se lanzó gpt-4o-2024-11-20 en
-
4 de noviembre
- Se lanzó Predicted Outputs
- Reduce significativamente la latencia de respuesta del modelo en situaciones donde ya se conoce gran parte de la respuesta
- Se usa especialmente con frecuencia al regenerar documentos y archivos de código con solo cambios menores
Octubre de 2024
-
30 de octubre
- Se agregaron cinco nuevos tipos de voz a la Realtime API y a la Chat Completions API
- Los modelos objetivo son
gpt-4o-realtime-previewygpt-4o-audio-preview, y también se especifica el endpointv1/chat/completions
-
17 de octubre
- Se presentó el nuevo modelo
gpt-4o-audio-preview - Admite tanto entrada como salida de audio en Chat Completions
- Este modelo usa el mismo modelo base que la Realtime API
- Se presentó el nuevo modelo
-
1 de octubre OpenAI DevDay in San Francisco
- Se presentaron varias funciones en OpenAI DevDay in San Francisco
- La Realtime API permite crear experiencias rápidas de speech-to-speech en aplicaciones mediante una interfaz WebSockets
- Model distillation permite afinar un modelo rentable aprovechando la salida de grandes modelos frontier
- Image fine-tuning permite afinar GPT-4o con imágenes y texto para mejorar capacidades visuales
- Evals ofrece la ejecución de evaluaciones personalizadas para medir el rendimiento del modelo en tareas específicas
- Prompt caching ofrece descuentos y tiempos de procesamiento más rápidos para tokens de entrada vistos recientemente
- Generate in playground permite generar fácilmente prompts, definiciones de funciones y esquemas de salida estructurada con el botón Generate
Septiembre de 2024
-
26 de septiembre
- Se presentó el nuevo modelo de moderación
omni-moderation-latest - Admite imágenes y texto, y en algunas categorías maneja texto e imágenes de forma conjunta
- Admite dos nuevas categorías de daño solo para texto y también mejora la precisión de las puntuaciones
- Se presentó el nuevo modelo de moderación
-
12 de septiembre
- Se presentaron o1-preview y o1-mini
- Ambos modelos son nuevos modelos de lenguaje de gran escala entrenados con aprendizaje por refuerzo y buscan resolver tareas complejas de razonamiento
- El endpoint aparece como
v1/chat/completions
Agosto de 2024
-
29 de agosto
- La Assistants API pasó a admitir la inclusión de resultados de búsqueda usados por file search tool y la personalización del comportamiento de ranking
-
20 de agosto
- El fine-tuning de
gpt-4o-2024-08-06pasó a GA, lo que permite a todos los usuarios de la API afinar el modelo GPT-4o más reciente
- El fine-tuning de
-
15 de agosto
- Se presentó el modelo dinámico para
chatgpt-4o-latest, configurado para apuntar al modelo GPT-4o más reciente que usa ChatGPT
- Se presentó el modelo dinámico para
-
6 de agosto
- Se lanzó Structured Outputs, haciendo que la salida del modelo siga de forma confiable el JSON Schema proporcionado por el desarrollador
- Ese mismo día, gpt-4o-2024-08-06 también se presentó como el modelo más reciente de la serie gpt-4o
-
1 de agosto
- Se lanzaron las Admin and Audit Log APIs, que permiten administrar organizaciones de forma programática y monitorear cambios con audit logs
- Audit logging debe activarse dentro de settings
Julio de 2024
-
24 de julio
- Se lanzó self-serve SSO configuration
- Los clientes Enterprise con billing custom y unlimited pueden configurar autenticación adaptada al IDP que prefieran
-
23 de julio
- Se lanzó el fine-tuning de GPT-4o mini, para apuntar a un mayor rendimiento en casos de uso específicos
-
18 de julio
- Se presentó GPT-4o mini
- Se describió como un modelo pequeño de bajo costo para tareas rápidas y ligeras
-
17 de julio
- Se lanzó Uploads, lo que permite subir archivos grandes dividiéndolos en varias partes
Junio de 2024
-
6 de junio
- En Chat Completions y la Assistants API, ahora se puede desactivar el llamado de funciones en paralelo enviando
parallel_tool_calls=false - El .NET SDK se lanzó en Beta
- En Chat Completions y la Assistants API, ahora se puede desactivar el llamado de funciones en paralelo enviando
-
3 de junio
- Se agregó soporte para file search customizations
Mayo de 2024
-
15 de mayo
- Se añadió soporte para archivo de proyectos y solo organization owner puede acceder
- También se añadió soporte para establecer límites de costo por proyecto para clientes de pago por uso
-
13 de mayo
- Se lanzó GPT-4o en la API
- Está descrito como el modelo flagship más rápido y más barato
-
9 de mayo
- Assistants API ahora admite entrada de imágenes
-
7 de mayo
- Batch API ahora admite modelos ajustados con fine-tuning
-
6 de mayo
- Se añadió el parámetro
stream_options: {"include_usage": true}a Chat Completions API y Completions API - Con esta configuración se puede acceder a las estadísticas de usage durante el streaming
- Se añadió el parámetro
-
2 de mayo
- Se añadió un nuevo endpoint para eliminar mensajes de un thread en Assistants API
Abril de 2024
-
29 de abril
- Se añadió la opción de function calling
tool_choice: "required"a Chat Completions API y Assistants API - También se añadieron la guía de Batch API y el soporte de modelos embeddings en Batch API
- Se añadió la opción de function calling
-
17 de abril
- Se introdujo un paquete de actualizaciones de Assistants API
- La nueva file search tool permite hasta 10,000 archivos por assistant
- También incluye soporte para nuevos token controls y tool choice
-
16 de abril
- Se introdujo una jerarquía basada en proyectos para organizar el trabajo por proyecto
- Se pueden crear API keys
- Se pueden administrar rate limits y cost limits por proyecto, y los cost limits solo están disponibles para clientes Enterprise
-
15 de abril
- Se lanzó Batch API
-
9 de abril
- GPT-4 Turbo with Vision pasó a disponibilidad general en la API
-
4 de abril
- Se añadió soporte para seed en la API de fine-tuning
- Se añadió soporte para checkpoints en la API de fine-tuning
- Assistants API ahora admite agregar Messages al crear un Run
-
1 de abril
- Assistants API ahora admite filtrar Messages por run_id
Marzo de 2024
-
29 de marzo
- Se añadió soporte para temperature y creación de assistant message en Assistants API
-
14 de marzo
- Se añadió soporte para streaming en Assistants API
Febrero de 2024
-
9 de febrero
- Se añadió el parámetro
timestamp_granularitiesa Audio API
- Se añadió el parámetro
-
1 de febrero
- Se lanzó gpt-3.5-turbo-0125 como el modelo GPT-3.5 Turbo actualizado
Enero de 2024
-
25 de enero
- Se presentaron el modelo embedding V3 y un preview actualizado de GPT-4 Turbo
- Se añadió el parámetro
dimensionsa Embeddings API
Diciembre de 2023
-
20 de diciembre
- Se añadió el parámetro
additional_instructionsa la creación de Run en Assistants API
- Se añadió el parámetro
-
15 de diciembre
- Se añadieron los parámetros
logprobsytop_logprobsa Chat Completions API
- Se añadieron los parámetros
-
14 de diciembre
- Los argumentos de function parameters de tool call pasaron a ser opcionales
Noviembre de 2023
-
30 de noviembre
- Se lanzó el OpenAI Deno SDK
-
6 de noviembre
- Se anunciaron varios elementos a la vez
- GPT-4 Turbo Preview
- GPT-3.5 Turbo actualizado
- GPT-4 Turbo with Vision
- Assistants API
- DALL·E 3 in the API
- API de texto a voz
- El parámetro
functionsde Chat Completions fue marcado como deprecated con miras a ser reemplazado por tools - Se lanzó OpenAI Python SDK V1.0
Octubre de 2023
-
16 de octubre
- Se agregó el parámetro
encoding_formata la Embeddings API - Se agregó
max_tokensa los moderation models
- Se agregó el parámetro
-
6 de octubre
- Se agregó soporte para function calling a la Fine-tuning API
2 comentarios
Entonces, desde la 5.4,
proya no ofrece la Chat Completions API.Opiniones de Hacker News
Lo probé enseguida por un tema de producción, y GPT-5.5 hizo algo que Claude no solía hacer
Después del troubleshooting, hizo que usara una sentencia
update, y cuando le dije: "ok, envolvamos esto en una transaction y agreguemos rollback", respondió a la antigua usanza conBEGIN TRAN;-- put the query herecommit;y nada más
Hacía tiempo que no tenía que empujar de nuevo a un modelo para que hiciera de verdad lo que le pedí, así que esto me sorprendió bastante
Entiendo que quiera gastar menos tokens, pero estoy pagando por un modelo de última generación, y molesta que salga con esta flojera
Solo lo probé porque apareció en el selector de modelos de Cursor
Si el problema fue que solo puso
-- put the query herey no repitió la query, no estoy seguro de que eso sea necesariamente maloSi el objetivo real era obtener la query para ejecutar y dijiste "hagámoslo como transaction", entonces es bastante razonable que te dijera que simplemente pongas
beginantesSi la query era larga, también ahorra tokens, y se parece a cuando sale
permission deniedy, en vez de reescribir todo el comando, te dicen que le pongassudoal inicioEn cambio, si esperabas que el modelo ejecutara realmente la query y respondió en modo "aquí está, ejecútalo tú", entonces sí, eso es claramente flojo y entiendo que saque de onda
Da esa impresión de comportamiento emergente
Bromas aparte, la obsesión de OpenAI con optimizar la inteligencia por token me recuerda a la época anterior al M1, cuando Apple estaba demasiado obsesionada con hacer las MacBook ultradelgadas
Se siente como perseguir una sola métrica hasta el final y sacrificar todo lo demás
GPT-5.3+ claramente está entre los modelos más inteligentes, pero a veces es tan flojo que trabajar con él se vuelve desesperante
Acabo de correrlo con mi benchmark de Wordpress+GravityForms, y hasta en rendimiento quedó en el fondo del leaderboard, con la peor relación costo-beneficio: https://github.com/guilamu/llms-wordpress-plugin-benchmark
Sé que es solo un benchmark, pero no entiendo cómo puede salir tan mal
Hoy en día el significado de las palabras se deshace demasiado fácil, así que esto pasa seguido
Incluso foros donde antes había mucha gente haciendo trabajo técnico de verdad ahora se sienten llenos de masas de vibe researchers; cuando se pasa cierto umbral de popularidad, esto suele pasar
HN todavía parece uno de los últimos bastiones donde queda exploración seria, pero viendo el comentario original, tampoco es inmune del todo
Este tipo de benchmarking sí me gusta bastante
Me da curiosidad cómo evaluaste el judge benchmark, y yo también quisiera armar algo parecido por mi cuenta
El prompt es extremadamente delgado, pero los criterios de evaluación son muchísimos
Los precios por longitud de contexto están así
Entrada: $5/M hasta 272K, $10/M por encima de eso
Salida: $30/M hasta 272K, $45/M por encima de eso
Lectura de caché: $0.50/M hasta 272K, $1/M por encima de eso
Pasando de 272K, claramente sale más caro que Opus 4.7, y al menos para mi trabajo no me pareció que fuera tan eficiente con los tokens como para compensarlo
No alcanzó a cubrir esa diferencia de precio
GPT-5.4 tenía como fortalezas un contexto de 400k y una compaction confiable, pero ambas cosas parecen haber retrocedido un poco
Aun así, todavía no me animo a afirmar que la confiabilidad de la compaction realmente haya empeorado
La salida de frontend también sigue tendiendo hacia esa plantilla azulada tan llamativa, llena de tarjetas por todos lados
Es un estilo que ya se veía sospechosamente desde Horizon Alpha/Beta, antes del lanzamiento de GPT-5; en ese momento la adherencia a la tarea era tan buena que valía la pena tolerar ese gran defecto
Pero si GPT-5.5 supuestamente es una foundation completamente nueva, sí se siente raro que esa parte siga siendo tan limitada
Los resultados del benchmark general de razonamiento para código de GPT 5.5 ya están en https://gertlabs.com/
Durante las próximas 24 horas seguirán agregando live decision y evals agentic más pesadas, pero ya no parece probable que cambie la posición en el leaderboard
GPT 5.5 es el modelo público más inteligente, y claramente es más rápido que su predecesor
Ayer decían esto
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
Así que me da la impresión de que ese hecho pudo haber acelerado este lanzamiento
Ya hubo antecedentes
No sé si solo me pasa a mí, pero en cada noticia como esta siento que OpenAI mueve comentaristas pagados o bots para pegarle a Claude y empujar la idea de que Codex es muchísimo mejor
Son demasiados, y varias de esas afirmaciones no cuadran si usas Claude todos los días
Se parece a cómo todo el mundo parece haber olvidado que OpenAI traicionó a la democracia al decidir colaborar con armas autónomas sin supervisión y vigilancia masiva doméstica
Al menos empezó a notarse por fuera justo después del hype de Opus 4.6
Hoy todas las empresas que empujan su producto andan en algo parecido
Soy usuario Enterprise y todavía solo me aparece 5.4
En el anuncio de ayer dijeron que el rollout total tomaría algunas horas, pero OpenAI tiene que mejorar su GTM para manejar mejor las expectativas
Qué bueno que lo liberaron rápido
La próxima vez tendré que quejarme antes
Es el segundo modelo que saca 25/25 en mi benchmark
El primero fue Opus 4.7, y los resultados están aquí: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
Más barato que Opus y más lento
En la página de la API aparece knowledge cutoff como 2025-12-01, pero si se lo preguntas directamente al modelo responde que es junio de 2024
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.Desde hace tiempo, preguntarle al propio modelo por la fecha de cutoff es de las formas menos confiables de comprobarlo
Incluso pudo haber aprendido cosas como este mismo tipo de comentario
Basta con preguntarle por algún hecho ocurrido justo antes de 2025-12-01
Si se puede, mejor del lado de eventos deportivos
En las páginas de API de modelos anteriores muchas veces también aparecía el cutoff de junio de 2024, así que puede que solo esté repitiendo eso
La forma correcta de comprobar el cutoff real es preguntarle por cosas que no existían o no habían ocurrido antes de esa fecha
Probándolo unas cuantas veces por encima, el cutoff de conocimiento general de 5.5 todavía parece estar más o menos a inicios de 2025
La combinación GPT 5.5 + Codex está realmente muy bien
Ya sea para hacer preguntas, armar planes o implementar código, ahora casi se lo dejo sin dudar
Opus 4.7 me hace seguir verificando todo dos veces
No sigue bien las instrucciones de
CLAUDE.md, alucina bastante, y si no encuentra la respuesta tiende por defecto a inventársela, y eso pesa muchoEl año pasado, cuando la gente decía que OpenAI se estaba quedando atrás, que era code red, fue cuestión de nada; viendo la situación ahora, todo cambió por completo