- Se actualizó el modelo más usado de ChatGPT, mejorando la precisión, fluidez y comprensión del contexto en las conversaciones cotidianas
- La nueva versión reduce los rechazos y advertencias innecesarias y ofrece respuestas directas y prácticas a las preguntas
- Al buscar en la web, se mejoró la capacidad de integrar información, generando respuestas contextualizadas en lugar de simples resúmenes
- El tono y estilo de conversación ahora son más naturales y concisos, y también se reforzaron la precisión factual y la calidad de la escritura creativa
- GPT‑5.3 Instant está disponible de inmediato en ChatGPT y la API, y el soporte para GPT‑5.2 Instant terminará el 3 de junio de 2026
Resumen de GPT‑5.3 Instant
- Es una actualización enfocada en mejorar de forma general la calidad de las conversaciones cotidianas en ChatGPT, con énfasis en respuestas precisas, comprensión del contexto y continuidad en el diálogo
- Reduce interrupciones innecesarias, frases de advertencia excesivas y expresiones declarativas para hacer la conversación más natural
- Refleja comentarios de los usuarios para mejorar el tono, la relevancia y el flujo conversacional
- La actualización fue diseñada en torno a la experiencia de uso diaria, priorizando la mejora percibida en la calidad por encima de los números de benchmark
Menos rechazos innecesarios y respuestas más concisas
- La versión anterior (GPT‑5.2 Instant) tenía problemas como rechazar en exceso preguntas que sí podían responderse con seguridad o retrasar la respuesta con introducciones moralizantes
- GPT‑5.3 Instant reduce los rechazos innecesarios y ofrece respuestas directas centradas en la pregunta
- Ejemplo: ante una solicitud para calcular tiro con arco de larga distancia, GPT‑5.2 añadía una larga introducción con advertencias de seguridad, mientras que
GPT‑5.3 pide de inmediato las variables físicas necesarias (potencia del arco, masa de la flecha, velocidad, etc.) y procede con el cálculo
- Como resultado, hay menos interrupciones en la conversación y se vuelven posibles respuestas inmediatas y prácticas
Mejor calidad en respuestas basadas en búsqueda web
- GPT‑5.3 Instant integra la información obtenida en la web con su conocimiento propio y capacidad de razonamiento para generar respuestas contextualizadas
- En lugar de solo listar enlaces o repetir información, prioriza resumir lo esencial y conectar su significado
- Ejemplo: ante la pregunta sobre el “mayor contrato del receso de temporada 2025–26 de la MLB”,
- GPT‑5.2 explicaba casos retrospectivos de la temporada anterior, pero
- GPT‑5.3 identifica con precisión el contrato de 4 años y 240 millones de dólares de Kyle Tucker con los LA Dodgers,
y lo explica conectándolo con cambios en la estructura de la liga e impacto de las negociaciones laborales
- Como resultado, mejoran la actualidad, relevancia y precisión contextual
Un estilo de conversación más natural
- Algunas respuestas de GPT‑5.2 Instant recibieron comentarios de que se sentían “poco naturales” por frases de consuelo excesivas o suposiciones emocionales
- GPT‑5.3 Instant reduce las expresiones emocionales innecesarias y mejora hacia un tono conversacional natural centrado en lo esencial
- Ejemplo: ante la pregunta “por qué es difícil encontrar amor en San Francisco”,
GPT‑5.3 explica de forma sistemática factores estructurales como la cultura urbana, la movilidad y la distancia emocional
- Sin introducciones como “vas a estar bien”, ofrece una respuesta analítica, directa y empática
Mejoras en precisión factual
- GPT‑5.3 Instant reduce de forma notable la tasa de alucinaciones en áreas de alto riesgo como medicina, derecho y finanzas
- La tasa de alucinaciones baja 26.8% al usar la web y 19.7% al usar solo conocimiento interno
- En evaluaciones basadas en comentarios de usuarios, también baja 22.5% (con web) y 9.6% (sin web)
- Al aumentar la confiabilidad de las respuestas basadas en hechos, se fortalece su utilidad práctica
Escritura más sólida
- GPT‑5.3 Instant mejora en profundidad narrativa y capacidad de expresión emocional, mostrando fortalezas en escritura creativa y descripción literaria
- Ejemplo: ante la solicitud de un poema sobre “la última entrega de un cartero de Filadelfia que se jubila”,
GPT‑5.3 transmite la emoción de forma natural mediante escenas concretas y detalles sensoriales
- Frente al tono sentimental de GPT‑5.2, ofrece mayor solidez estructural y realismo
Limitaciones y mejoras futuras
- En idiomas no ingleses (como japonés y coreano) todavía aparecen expresiones torpes o demasiado literales
- Mejorar un tono natural por idioma sigue siendo una tarea pendiente
- La función de ajuste del tono de respuesta sigue en mejora, y se continúa recopilando retroalimentación de los usuarios
Disponibilidad y plan de transición
- GPT‑5.3 Instant está disponible de inmediato para todos los usuarios de ChatGPT y en la API (
gpt‑5.3‑chat‑latest)
- Las actualizaciones para los modelos Thinking y Pro llegarán pronto
- GPT‑5.2 Instant dejará de tener soporte el 3 de junio de 2026 y se ofrecerá durante 3 meses como ‘Legacy Models’ para usuarios de pago
1 comentarios
Comentarios en Hacker News
Ahora mismo, el mayor problema de ChatGPT es su tono raro al escribir
Tiene demasiadas frases como “Why it matters”, “the big picture”, énfasis exagerado y preguntas retóricas
La primera versión de GPT‑5 estaba bien, pero al intentar darle una “personalidad más cálida” terminaron arruinándolo otra vez como 4o
Antes también era bueno en japonés, pero ahora la calidad bajó y resulta decepcionante
Así que ahora al menos le meto efectos de sonido, <i>swoosh</i>, e intento otro estilo de escritura
Tomo la salida del LLM como referencia, pero no la copio tal cual: la reescribo con mi propia voz para mantener mi estilo
La marca “5.2‑Instant” confunde
Pensé que era un modelo ultrarrápido, pero más bien parece ser la versión 5.2 sin router
Da la impresión de que OpenAI volvió a la época previa a GPT‑5, con tantos modelos que ya no sabes cuál usar
Una es la serie Instant, rápida y optimizada para ChatGPT, pero menos precisa
La otra es la serie Thinking, más lenta pero más adecuada para trabajo especializado
Quieren simplificarlo a una sola opción, pero como las preferencias de los usuarios varían, siguen ofreciendo ambos modelos (quien escribe trabaja en OpenAI)
El competidor Gemini 3 Fast / Gemini 3 Thinking usa el mismo enfoque
Como el modelo “Thinking” sale caro, la estrategia parece ser retenerlos con un modelo Instant más barato
En interfaces de voz, importa más el tiempo hasta el primer token que la velocidad de tokens por segundo
Me dio risa ver el título “GPT‑5.3 Instant: Smoother, more …”
Últimamente el marketing de los LLM suena como publicidad de cigarrillos
En la página aparece la frase “Better judgment around refusals”,
y me pregunto si alguna empresa de IA ha tratado oficialmente el problema de aplicar reglas distintas según el grupo
Por ejemplo, rechazar chistes sobre ciertos grupos pero permitirlos sobre otros
Además, este paper afirma que el modelo valora de forma distinta la vida humana según el país
Incluso si le pedía responder en unidades métricas, muchas veces no lo respetaba y tenía que rehacer varias preguntas de cocina
Ahora mejoró un poco, pero sigue teniendo una perspectiva muy estadounidense
Dicen que calcularon un “tipo de cambio” de la vida humana usando el precio de una cabra, pero eso también podría reflejar simplemente diferencias de costo de vida entre países
Además, la muestra es de solo 11 países, así que cuesta generalizar
y no demuestra las preferencias intrínsecas reales del modelo
Si se ofrece una opción neutral, la mayoría de los modelos valora todas las vidas humanas por igual
Además, el paper original tampoco publica bien los datos y cuesta vincular el código con los resultados, así que su confiabilidad es baja
Según este enlace comparativo,
Gemini 3.1 Lite (sin reasoning) rinde mejor que GPT‑5.3 (sin reasoning)
Me incomodó que en el ejemplo del anuncio mencionaran cálculo de trayectorias de artillería de largo alcance
Como OpenAI está colaborando con el ejército de EE. UU., parece que están intentando normalizar este tipo de uso militar
Da la impresión de que lo envuelven cada vez más en ejemplos cotidianos para volver más tibia la oposición
Pero viendo el contexto actual, ya no sé si esa interpretación sea correcta
Sí me hace sentido la explicación de que “GPT‑5.3 Instant combina mejor la información tomada de la web”
En la práctica, GPT usa la búsqueda de forma mucho más natural que Claude
Además tiene un bug por el que olvida la configuración aunque desactives la búsqueda web
En mis benchmarks, GPT‑5.3 rindió igual o apenas un poco peor que 5.2‑chat
Por eso creo entender por qué no publicaron benchmarks en el blog
Enlace comparativo
Algo curioso es que, justo antes del anuncio de “5.3 Instant”, quitaron por completo la opción “Instant” del selector de modelos
y la cambiaron por “Auto (pero con Auto‑switch desactivado)”
Esa explicación de “automático, pero con lo automático apagado” parece prueba de que ni ellos mismos lo tienen claro