- A partir del 13 de febrero de 2026, GPT‑4o/4.1/4.1 mini/o4‑mini dejarán de estar soportados en ChatGPT
- Esto ocurrirá junto con el calendario de retiro de GPT‑5 (Instant, Thinking, Pro), y no hay cambios en la API
- OpenAI sigue mejorando ChatGPT, incluyendo más libertad para usuarios adultos y menos rechazos innecesarios y advertencias excesivas
Calendario y alcance del retiro de modelos
- El 13 de febrero de 2026, GPT‑4o, GPT‑4.1, GPT‑4.1 mini y OpenAI o4‑mini serán retirados de ChatGPT
- Esta fecha coincide con el retiro ya anunciado de GPT‑5 (Instant, Thinking, Pro)
- Actualmente no hay ningún cambio en el servicio de API
Contexto de GPT‑4o y comentarios de los usuarios
- GPT‑4o es un modelo que fue restaurado después de haber sido retirado temporalmente, y durante ese proceso se analizó el patrón de uso de los usuarios
- Algunos usuarios de Plus y Pro pidieron más tiempo para migrar sus casos de uso principales
- En especial, hubo muchas opiniones a favor de su uso para generación creativa de ideas y por su estilo de conversación cálido
- Estos comentarios se reflejaron directamente en la dirección de desarrollo de GPT‑5.1 y GPT‑5.2
- Se añadieron mejoras en personalidad (personality), apoyo para ideas creativas y funciones de personalización del estilo de respuesta
- Los usuarios pueden elegir tonos base como Friendly y ajustar el nivel de calidez y entusiasmo
Razones del retiro de GPT‑4o
- El retiro de GPT‑4o se debe a que la migración de uso hacia GPT‑5.2 ya está prácticamente completada
- Actualmente, solo el 0.1% de los usuarios diarios usa GPT‑4o
- Como las funciones mejoradas ya fueron incorporadas, la necesidad de mantener el modelo anterior es baja
Dirección general de mejora de ChatGPT
- OpenAI continúa mejorando la personalidad, la creatividad y la calidad de las respuestas con base en los comentarios de los usuarios
- También planea actualizaciones para reducir los rechazos innecesarios y las respuestas excesivamente cautelosas o con tono aleccionador
- Se está desarrollando una versión de ChatGPT dirigida a adultos (18 años o más)
- Bajo el principio de tratar a los adultos como adultos, el objetivo es ampliar la capacidad de elección y la libertad
- Para respaldar esto, se ha implementado en la mayoría de los mercados una función de estimación de edad para usuarios menores de 18 años
Aviso para usuarios y planes futuros
- OpenAI planea anunciar por adelantado calendarios claros y cambios cuando haya modificaciones en los modelos
- Reconoce que algunos usuarios podrían sentirse incómodos con el fin del acceso a GPT‑4o
- Sin embargo, el retiro de modelos es una medida para concentrarse en mejorar los modelos que se usan actualmente
2 comentarios
Personalmente usaba mucho o4-mini, así que es una lástima.
Comentarios en Hacker News
Mucha gente dice que se está regresando a Claude, pero yo más bien estoy satisfecho con ChatGPT últimamente
Parece que Anthropic cambió algo desde diciembre del año pasado, y con mi plan Pro incluso usando solo Sonnet llego seguido al límite semanal
En cambio, ChatGPT se puede usar casi sin restricciones incluso con el plan de $20, y también es lo bastante rápido al programar en modo 5.2 codex
Incluso en una conversación nueva detecta para qué proyecto lo voy a usar y me da ejemplos acordes
Sus respuestas se sienten un poco más cálidas y personales
A finales de diciembre, cuando aumentaron temporalmente la capacidad, estaba bien, pero después sentí que el consumo se aceleró
Tal vez fue porque mis hábitos de uso cambiaron en ese periodo
Por el alto consumo de tokens de Opus y el extraño reporte de uso, me da la impresión de que es una estrategia para empujar a la gente de Pro a Max
Pero si le dabas permiso para ejecutar tests o importar paquetes, se enredaba muy rápido
En macOS, por ejemplo, se detenía diciendo que no existía el comando
sleep, y se descontrolaba sin poder pedir ayuda por sí soloAl final el usuario tenía que interrumpirlo manualmente y se perdía el contexto
OpenAI dijo que está preparando una versión de ChatGPT para mayores de 18 años
Y que a los menores les aplicó una función de estimación de edad
Enlace oficial de ayuda
Pero creo que el porno con LLM personalizados puede tener elementos adictivos tipo refuerzo y producir consecuencias negativas
Y al revés, también sería un problema si un menor es detectado como adulto
Además, incluso siendo adulto, quisiera evitar una exposición no deseada a contenido para adultos
Sin importar la edad, los retos virales peligrosos o el contenido obsesionado con la apariencia siguen siendo dañinos
Es muy probable que sea una medida para permitir anuncios de alcohol o farmacéuticos
Algo como: “verifica tu edad fácil con Orb en vez de pasar por una verificación molesta”
Y al final van a hacer que no puedas iniciar sesión sin Orb, mientras venden modelos plateados y negros
La empresa que lo domine primero va a ganar muchísimo dinero
Dicen que OpenAI volvió a habilitar GPT‑4o porque algunos usuarios preferían la calidez de la conversación y las ideas creativas
O sea, no es que el modelo estuviera adulando, sino que la gente quería ese estilo
La opinión de HN o Reddit no refleja los gustos del conjunto de usuarios
Al final, casi nadie está libre del sesgo de confirmación
Fueron quienes más se quejaron cuando retiraron el modelo anterior
o3 usaba muy bien las respuestas en formato de tabla para prompts de análisis de datos y eso lo hacía agradable de leer
5.2 está más centrado en párrafos tipo blog y es menos eficiente
Estaría bien que aprendiera el formato preferido de cada usuario para personalizarlo
Se puede cambiar desde el menú
PersonalisationAún estoy probando cuánto impacto tiene eso en el nivel de adulación
Desde que subieron el límite semanal del modelo Thinking a 3000, uso casi solo ese
Estoy bastante satisfecho gracias a la ventana de contexto de 200k
Antes usaba Gemini por el contexto de 1M tokens, pero ahora regresé a ChatGPT
En modo Extended Thinking busca cientos de fuentes y funciona como una investigación profunda
En cambio, el modelo Flash sí busca más seguido para verificar
Tal vez también sea una estrategia para empujar a la gente hacia la API pagada
ChatGPT ahora parece buscar solo cuando está en modo Thinking/Research
La serie GPT‑5 es demasiado verbosa e ilógica, y me decepciona
Olvida rápido las instrucciones del sistema, y aunque le pidas responder breve, termina generando listas largas
Claude 4.5 se siente mucho más natural tanto para conversar como para programar
El propio modelo explicó que la verbosidad es un efecto secundario del objetivo de optimización
Dice que los modelos nuevos priorizan la seguridad y la cobertura, así que por naturaleza se volvieron más habladores
Como tiene menos cambios de personalidad y es más estable, encaja mejor en proyectos de automatización
La serie 5 es lenta y tiene una personalidad innecesariamente marcada, así que no aporta valor al negocio
Ignora la instrucción de ser breve y claro, y da la impresión de empujarte a una sobrecarga de información
Es incluso peor que el viejo 3.5
En vez de dar un reporte corto, solo soltaba consejos negativos y larguísimos
Por eso me fui a Claude, LM Studio y gpt-oss
Para programar ya uso principalmente Claude
ChatGPT 5.2 fue tan malo que me llevó a probar otros LLM
Tanto la precisión como el seguimiento de instrucciones cayeron, pero gracias a eso empecé a interesarme más en Claude y en modelos locales
Claude es mucho más cómodo porque mantiene consistencia aunque cambie el modelo
Es irónico que eliminaran el modelo para roleplay romántico justo un día antes de San Valentín
Como GPT‑5.2 es el modelo predeterminado, es natural que el 99.9% de los usuarios use ese
El diseño de la UI es incómodo y eso fastidia
Está muy bien que haya varias opciones como Gemini, Claude y ChatGPT
ChatGPT se está volviendo cada vez menos útil como asistente de investigación, así que me cambié a Grok y Gemini
En general, quedé mucho más satisfecho
Yo sentí que ChatGPT seguía mejorando, mientras que Gemini casi no me servía
Hasta citaba mal los enlaces, así que cuesta confiar en él para investigación