2 puntos por GN⁺ 2026-03-04 | 1 comentarios | Compartir por WhatsApp
  • Se actualizó el modelo más usado de ChatGPT, mejorando la precisión, fluidez y comprensión del contexto en las conversaciones cotidianas
  • La nueva versión reduce los rechazos y advertencias innecesarias y ofrece respuestas directas y prácticas a las preguntas
  • Al buscar en la web, se mejoró la capacidad de integrar información, generando respuestas contextualizadas en lugar de simples resúmenes
  • El tono y estilo de conversación ahora son más naturales y concisos, y también se reforzaron la precisión factual y la calidad de la escritura creativa
  • GPT‑5.3 Instant está disponible de inmediato en ChatGPT y la API, y el soporte para GPT‑5.2 Instant terminará el 3 de junio de 2026

Resumen de GPT‑5.3 Instant

  • Es una actualización enfocada en mejorar de forma general la calidad de las conversaciones cotidianas en ChatGPT, con énfasis en respuestas precisas, comprensión del contexto y continuidad en el diálogo
    • Reduce interrupciones innecesarias, frases de advertencia excesivas y expresiones declarativas para hacer la conversación más natural
  • Refleja comentarios de los usuarios para mejorar el tono, la relevancia y el flujo conversacional
  • La actualización fue diseñada en torno a la experiencia de uso diaria, priorizando la mejora percibida en la calidad por encima de los números de benchmark

Menos rechazos innecesarios y respuestas más concisas

  • La versión anterior (GPT‑5.2 Instant) tenía problemas como rechazar en exceso preguntas que sí podían responderse con seguridad o retrasar la respuesta con introducciones moralizantes
  • GPT‑5.3 Instant reduce los rechazos innecesarios y ofrece respuestas directas centradas en la pregunta
    • Ejemplo: ante una solicitud para calcular tiro con arco de larga distancia, GPT‑5.2 añadía una larga introducción con advertencias de seguridad, mientras que
      GPT‑5.3 pide de inmediato las variables físicas necesarias (potencia del arco, masa de la flecha, velocidad, etc.) y procede con el cálculo
  • Como resultado, hay menos interrupciones en la conversación y se vuelven posibles respuestas inmediatas y prácticas

Mejor calidad en respuestas basadas en búsqueda web

  • GPT‑5.3 Instant integra la información obtenida en la web con su conocimiento propio y capacidad de razonamiento para generar respuestas contextualizadas
    • En lugar de solo listar enlaces o repetir información, prioriza resumir lo esencial y conectar su significado
  • Ejemplo: ante la pregunta sobre el “mayor contrato del receso de temporada 2025–26 de la MLB”,
    • GPT‑5.2 explicaba casos retrospectivos de la temporada anterior, pero
    • GPT‑5.3 identifica con precisión el contrato de 4 años y 240 millones de dólares de Kyle Tucker con los LA Dodgers,
      y lo explica conectándolo con cambios en la estructura de la liga e impacto de las negociaciones laborales
  • Como resultado, mejoran la actualidad, relevancia y precisión contextual

Un estilo de conversación más natural

  • Algunas respuestas de GPT‑5.2 Instant recibieron comentarios de que se sentían “poco naturales” por frases de consuelo excesivas o suposiciones emocionales
  • GPT‑5.3 Instant reduce las expresiones emocionales innecesarias y mejora hacia un tono conversacional natural centrado en lo esencial
    • Ejemplo: ante la pregunta “por qué es difícil encontrar amor en San Francisco”,
      GPT‑5.3 explica de forma sistemática factores estructurales como la cultura urbana, la movilidad y la distancia emocional
    • Sin introducciones como “vas a estar bien”, ofrece una respuesta analítica, directa y empática

Mejoras en precisión factual

  • GPT‑5.3 Instant reduce de forma notable la tasa de alucinaciones en áreas de alto riesgo como medicina, derecho y finanzas
    • La tasa de alucinaciones baja 26.8% al usar la web y 19.7% al usar solo conocimiento interno
    • En evaluaciones basadas en comentarios de usuarios, también baja 22.5% (con web) y 9.6% (sin web)
  • Al aumentar la confiabilidad de las respuestas basadas en hechos, se fortalece su utilidad práctica

Escritura más sólida

  • GPT‑5.3 Instant mejora en profundidad narrativa y capacidad de expresión emocional, mostrando fortalezas en escritura creativa y descripción literaria
    • Ejemplo: ante la solicitud de un poema sobre “la última entrega de un cartero de Filadelfia que se jubila”,
      GPT‑5.3 transmite la emoción de forma natural mediante escenas concretas y detalles sensoriales
    • Frente al tono sentimental de GPT‑5.2, ofrece mayor solidez estructural y realismo

Limitaciones y mejoras futuras

  • En idiomas no ingleses (como japonés y coreano) todavía aparecen expresiones torpes o demasiado literales
    • Mejorar un tono natural por idioma sigue siendo una tarea pendiente
  • La función de ajuste del tono de respuesta sigue en mejora, y se continúa recopilando retroalimentación de los usuarios

Disponibilidad y plan de transición

  • GPT‑5.3 Instant está disponible de inmediato para todos los usuarios de ChatGPT y en la API (gpt‑5.3‑chat‑latest)
  • Las actualizaciones para los modelos Thinking y Pro llegarán pronto
  • GPT‑5.2 Instant dejará de tener soporte el 3 de junio de 2026 y se ofrecerá durante 3 meses como ‘Legacy Models’ para usuarios de pago

1 comentarios

 
GN⁺ 2026-03-04
Comentarios en Hacker News
  • Ahora mismo, el mayor problema de ChatGPT es su tono raro al escribir
    Tiene demasiadas frases como “Why it matters”, “the big picture”, énfasis exagerado y preguntas retóricas
    La primera versión de GPT‑5 estaba bien, pero al intentar darle una “personalidad más cálida” terminaron arruinándolo otra vez como 4o
    Antes también era bueno en japonés, pero ahora la calidad bajó y resulta decepcionante

    • Antes yo también escribía cosas tipo “Why X works, but Y doesn’t”, pero ahora me da más pena porque parece que soy una persona imitando a un LLM
      Así que ahora al menos le meto efectos de sonido, <i>swoosh</i>, e intento otro estilo de escritura
    • A mí también me molesta ese estilo repetitivo, pero ya pasé esa etapa y ahora solo extraigo el contenido
      Tomo la salida del LLM como referencia, pero no la copio tal cual: la reescribo con mi propia voz para mantener mi estilo
    • Capaz pronto saquen una “versión premium sin arrogancia”. Entonces bastante gente probablemente se cambiaría
  • La marca “5.2‑Instant” confunde
    Pensé que era un modelo ultrarrápido, pero más bien parece ser la versión 5.2 sin router
    Da la impresión de que OpenAI volvió a la época previa a GPT‑5, con tantos modelos que ya no sabes cuál usar

    • ChatGPT Plus en realidad usa dos familias de modelos
      Una es la serie Instant, rápida y optimizada para ChatGPT, pero menos precisa
      La otra es la serie Thinking, más lenta pero más adecuada para trabajo especializado
      Quieren simplificarlo a una sola opción, pero como las preferencias de los usuarios varían, siguen ofreciendo ambos modelos (quien escribe trabaja en OpenAI)
    • A la gente le gusta tener opciones, así que distinguirlo como “5.2 Instant / 5.2 Thinking” en vez de solo “5.2” queda más claro
      El competidor Gemini 3 Fast / Gemini 3 Thinking usa el mismo enfoque
    • Todavía hay unas 800 mil personas al día usando gpt‑4o, así que también quieren conservar esa base de usuarios
      Como el modelo “Thinking” sale caro, la estrategia parece ser retenerlos con un modelo Instant más barato
    • Habrá que ver benchmarks reales, pero por la explicación de OpenAI, Instant es un modelo optimizado para latencia
      En interfaces de voz, importa más el tiempo hasta el primer token que la velocidad de tokens por segundo
  • Me dio risa ver el título “GPT‑5.3 Instant: Smoother, more …”
    Últimamente el marketing de los LLM suena como publicidad de cigarrillos

    • “GPT‑5.3 Instant: It’s toasted…”
    • “LLMenthols”
    • “GPT Super Mild”
    • “GPT Crush”
  • En la página aparece la frase “Better judgment around refusals”,
    y me pregunto si alguna empresa de IA ha tratado oficialmente el problema de aplicar reglas distintas según el grupo
    Por ejemplo, rechazar chistes sobre ciertos grupos pero permitirlos sobre otros
    Además, este paper afirma que el modelo valora de forma distinta la vida humana según el país

    • ¿No podría ser simplemente un reflejo de las normas sociales?
    • Para mí, el mayor problema era el sesgo centrado en EE. UU.
      Incluso si le pedía responder en unidades métricas, muchas veces no lo respetaba y tenía que rehacer varias preguntas de cocina
      Ahora mejoró un poco, pero sigue teniendo una perspectiva muy estadounidense
    • La crítica sobre el sesgo del modelo es válida, pero ese paper se ve flojo en la metodología
      Dicen que calcularon un “tipo de cambio” de la vida humana usando el precio de una cabra, pero eso también podría reflejar simplemente diferencias de costo de vida entre países
      Además, la muestra es de solo 11 países, así que cuesta generalizar
    • Un paper de ACM señala que este tipo de experimento de “tipo de cambio” es solo producto del diseño de la evaluación
      y no demuestra las preferencias intrínsecas reales del modelo
      Si se ofrece una opción neutral, la mayoría de los modelos valora todas las vidas humanas por igual
      Además, el paper original tampoco publica bien los datos y cuesta vincular el código con los resultados, así que su confiabilidad es baja
  • Según este enlace comparativo,
    Gemini 3.1 Lite (sin reasoning) rinde mejor que GPT‑5.3 (sin reasoning)

    • Y además cuesta muchísimo menos: GPT‑5.3 está en $0.256, mientras Gemini anda por $0.011
  • Me incomodó que en el ejemplo del anuncio mencionaran cálculo de trayectorias de artillería de largo alcance

    • Es incómodo, pero no raro
      Como OpenAI está colaborando con el ejército de EE. UU., parece que están intentando normalizar este tipo de uso militar
      Da la impresión de que lo envuelven cada vez más en ejemplos cotidianos para volver más tibia la oposición
    • Yo vi ese ejemplo como un homenaje a la época en que las primeras computadoras se usaban para cálculos balísticos
      Pero viendo el contexto actual, ya no sé si esa interpretación sea correcta
    • También podría ser simplemente un ejemplo típico de libro de física de secundaria
    • Considerando lo que ha pasado recientemente, ese ejemplo se ve como un error insensible
    • También hubo quien reaccionó en broma con un “¿hubo recientemente algún accidente de tiro con arco?”
  • Sí me hace sentido la explicación de que “GPT‑5.3 Instant combina mejor la información tomada de la web”
    En la práctica, GPT usa la búsqueda de forma mucho más natural que Claude

    • En cambio, a mí Claude me parece que busca demasiado seguido
      Además tiene un bug por el que olvida la configuración aunque desactives la búsqueda web
  • En mis benchmarks, GPT‑5.3 rindió igual o apenas un poco peor que 5.2‑chat
    Por eso creo entender por qué no publicaron benchmarks en el blog
    Enlace comparativo

  • Algo curioso es que, justo antes del anuncio de “5.3 Instant”, quitaron por completo la opción “Instant” del selector de modelos
    y la cambiaron por “Auto (pero con Auto‑switch desactivado)”
    Esa explicación de “automático, pero con lo automático apagado” parece prueba de que ni ellos mismos lo tienen claro