GPT‑5.5 Instant
(openai.com)- El modelo predeterminado de ChatGPT, Instant, se actualiza de GPT‑5.3 Instant a GPT‑5.5 Instant y se desplegará gradualmente para todos los usuarios, con el objetivo de ofrecer respuestas más precisas, concisas y personalizadas
- En evaluaciones internas de OpenAI, GPT‑5.5 Instant redujo en 52.5% las afirmaciones alucinadas en prompts de alto riesgo como medicina, derecho y finanzas frente a GPT‑5.3 Instant, y también disminuyó en 37.3% las afirmaciones inexactas en conversaciones difíciles marcadas por usuarios como errores factuales
- Mejoró en análisis de fotos e imágenes subidas, preguntas STEM, criterio para decidir cuándo usar búsqueda web, y en evaluaciones de razonamiento visual, matemáticas y ciencias; en el ejemplo de matemáticas encontró un error al mover términos y llegó a
x = (3 + √33) / 2 - GPT‑5.5 Instant fue ajustado para dar respuestas cortas y enfocadas sin perder lo esencial, reduciendo la verbosidad, el formato excesivo, las preguntas de seguimiento innecesarias y el uso innecesario de emojis
- Personaliza mejor usando el contexto de chats anteriores, archivos y Gmail conectado, y con la nueva función memory sources se puede ver, eliminar o modificar parte de la memoria guardada o de chats previos usados en una respuesta
Alcance de la actualización y dirección de las respuestas
- El modelo predeterminado de ChatGPT, Instant, cambia de GPT‑5.3 Instant a GPT‑5.5 Instant y estará disponible para todos los usuarios
- Instant es un modelo que usan a diario cientos de millones de personas, por lo que incluso pequeñas mejoras tienen un gran impacto en la utilidad y satisfacción de las interacciones cotidianas
- Esta actualización apunta a respuestas más sólidas y compactas en varios temas, un tono de conversación más natural y un mejor uso del contexto que el usuario ya compartió cuando la personalización resulta útil
Mejoras en precisión y razonamiento
- GPT‑5.5 Instant mejoró su factualidad general y mostró las mayores mejoras en áreas donde la precisión es clave
- En evaluaciones internas de OpenAI, GPT‑5.5 Instant generó 52.5% menos afirmaciones alucinadas que GPT‑5.3 Instant en prompts de alto riesgo como medicina, derecho y finanzas
- En conversaciones especialmente difíciles marcadas por usuarios como errores factuales, redujo las afirmaciones inexactas en 37.3%
- También se volvió un modelo más capaz en tareas cotidianas, con mejoras en el análisis de fotos e imágenes subidas, respuestas a preguntas STEM y la capacidad de decidir cuándo usar búsqueda web para dar respuestas más útiles
- También se observaron mejoras en evaluaciones de razonamiento visual, matemáticas y ciencias
Ejemplo de respuesta matemática
-
Respuesta de GPT‑5.3 Instant
- En un ejemplo de ecuación con raíz cuadrada donde el usuario preguntó si su procedimiento era correcto, GPT‑5.3 Instant respondió primero que elevar al cuadrado, desarrollar, factorizar y verificar el dominio estaba bien
- Después confirmó que al sustituir
x = 3en la expresión original se obtiene√10 ≠ 2, por lo que lo consideró una solución espuria generada en el proceso de elevar al cuadrado - Sin embargo, terminó con la conclusión equivocada de que no hay solución real, sin volver a rastrear el error algebraico real
-
Respuesta de GPT‑5.5 Instant
- GPT‑5.5 Instant también acepta al principio que el procedimiento del usuario es correcto, pero detecta el error al sustituir
x = 3en la expresión original y comprobar que√10 ≠ 2 - Luego identifica que el problema no era solo una solución espuria, sino también un error al mover términos, y corrige que de
x + 7 = (x - 1)^2debería obtenerse0 = x^2 - 3x - 6 - Después obtiene
x = (3 ± √33) / 2con la fórmula cuadrática y, según la condiciónx ≥ 1, presenta como solución válida(3 + √33) / 2 - La respuesta de GPT‑5.5 Instant se recupera del error inicial, encuentra el error algebraico real y llega a la solución correcta
- GPT‑5.5 Instant también acepta al principio que el procedimiento del usuario es correcto, pero detecta el error al sustituir
Comunicación más concisa
- GPT‑5.5 Instant fue ajustado para ofrecer respuestas más cortas y enfocadas sin perder los puntos clave
- Mantiene la calidez y personalidad que hacen agradable usar ChatGPT, pero transmite la misma información de forma más útil que el modelo anterior, reduciendo la verbosidad y el formato excesivo
- Hace menos preguntas de seguimiento innecesarias y evita elementos que recargan la respuesta, como emojis innecesarios
- En un ejemplo donde se pregunta cómo decirle a un compañero de trabajo que hable menos, GPT‑5.5 Instant usa 30.2% menos palabras y 29.2% menos líneas que GPT‑5.3 Instant
- GPT‑5.5 Instant mantiene un tono informal pero práctico y seguro para el trabajo, ofrece frases según la situación y trata el problema como una cuestión de establecer límites y no de la personalidad del compañero
- GPT‑5.3 Instant, aunque más completo al incluir incluso una sección de “qué no hacer”, termina siendo una respuesta algo excesiva en estructura y pulido para un prompt de consejo casual
Personalización y control
- Instant aprovecha de manera más efectiva el contexto de chats anteriores, archivos y Gmail conectado para personalizar más las respuestas
- Decide de forma inteligente cuándo una personalización adicional puede mejorar la respuesta, y busca conversaciones anteriores con mayor rapidez para encontrar el contexto adecuado y evitar que el usuario repita lo mismo
- Esto es especialmente útil al recibir sugerencias o planes personalizados, o al retomar trabajo en curso
- En un ejemplo donde se pide una recomendación de té, GPT‑5.3 Instant ofrece sugerencias generales de lugares reflejando que el usuario está en San Francisco
- GPT‑5.5 Instant usa el contexto previo de que el usuario visita con frecuencia Asha Tea House y prefiere tés taiwaneses/de alta montaña de sabor limpio por encima del boba muy dulce, para recomendar con más precisión Ceré Tea, Song Tea & Ceramics, Tea Rex Cafe & Specialty Teas y Stonemill Matcha
memory sources
- Se introduce memory sources en todos los modelos de ChatGPT, una nueva opción de control para ver qué contexto se usó en la personalización de una respuesta
- Cuando una respuesta está personalizada, se puede revisar qué contexto se utilizó, como memoria guardada o chats anteriores, y eliminar o modificar información antigua o que ya no sea relevante
- En chats compartidos, memory sources no se muestra a otras personas
- El usuario puede eliminar chats que ya no quiera que se citen, borrar o cambiar elementos de memoria guardada desde la configuración, o usar chats temporales que no usan ni actualizan la memoria
- memory sources busca hacer la personalización más fácil de entender, pero puede que no siempre muestre todos los factores que influyeron en una respuesta
- En sources puede mostrarse solo una parte de los chats anteriores más relevantes, y no todos los chats pasados buscados o consultados; esta vista se irá mejorando con el tiempo para ser más completa
Calendario de disponibilidad
- GPT‑5.5 Instant comienza a desplegarse desde hoy para todos los usuarios de ChatGPT y reemplaza a GPT‑5.3 Instant como modelo predeterminado
- En la API estará disponible como
chat-latest - Los usuarios de pago podrán seguir usando GPT‑5.3 Instant durante 3 meses mediante la configuración de modelos, tras lo cual GPT‑5.3 Instant será retirado
- La personalización mejorada basada en chats anteriores, archivos y Gmail conectado se desplegará gradualmente para usuarios Plus y Pro en la web, y llegará pronto a móvil
- También está previsto expandirlo a Free, Go, Business y Enterprise en las próximas semanas
- memory sources ya se está desplegando gradualmente para todos los planes de consumo de ChatGPT en la web, y llegará pronto a móvil
- La disponibilidad de ciertas fuentes de personalización puede variar según la región
1 comentarios
Opiniones de Hacker News
Si quieren ver inmediatez, échenle un vistazo a chatjimmy.ai. No tengo relación con ellos, pero las posibilidades que abre para el producto que estoy construyendo son bastante impactantes
Si es posible hacer razonamiento en milisegundos incluso con modelos mucho más antiguos, el panorama cambia por completo. Es tan rápido que podrías ejecutar razonamiento en casi cada llamada a la API sin una latencia perceptible, así que está realmente brutal
Edit: era esta empresa https://taalas.com/products/
GPT-5.3-instant no fue nada instantáneo. Incluso con el esfuerzo mínimo de razonamiento, en el mejor de los casos el TTFT fue unas 3 o 4 veces más lento que GPT-4.1
Obviamente lo digo porque ellos mismos decidieron ponerle el nombre “instant”. De verdad hace falta una actualización real para GPT-4.1, el caballo de batalla del datacenter
Y además, sacar un modelo “instant” sin mencionar en absoluto sus características de latencia... ¿qué se supone que significa eso?
Me pregunto en qué se diferencia esto de poner el esfuerzo de razonamiento en 0 en GPT 5.5 thinking. Es interesante la decisión de producto de separarlos en modelos distintos
Si ese es el caso, entonces el modelo instant debe ser un modelo más pequeño y completamente distinto, y probablemente esté pensado principalmente para el tier gratuito de ChatGPT
¿Esto también se puede usar en la API? No veo instant, solo chat
Se ve como que las respuestas son más fáciles de leer, y ojalá realmente lo sean. El modelo general gratuito de ChatGPT ahorita es demasiado difícil de aguantar
Básicamente, hubo un gran aumento de inteligencia en el rango de precio más barato
chat-latestaparece con $5/$30 de entrada/salida, o sea el mismo precio que gpt-5.5¿Por qué no pueden lanzar de forma más consistente los modelos Instant y Thinking al mismo tiempo para cada número de versión? No entiendo por qué arman este alboroto redundante
Está bien. Salió algo que de verdad se puede usar y con un precio accesible