OpenAI anuncia una gran expansión de la función de memoria de ChatGPT
(arstechnica.com)A continuación se presenta un resumen estructurado en coreano, elaborado a partir del artículo de Ars Technica «ChatGPT can now remember and reference all your previous chats» (11 de abril de 2025), para lectores desarrolladores y profesionales de tecnología de Corea. Se organizó en torno a los cambios técnicos, la mejora de la personalización para el usuario y las preocupaciones sobre privacidad.
1. Contexto del cambio: límites de la función de memoria existente
OpenAI ya permitía guardar parte de la información personalizada del usuario y reflejarla en las conversaciones mediante la función “Memory”. Sin embargo, esta función tenía las siguientes limitaciones:
- La información guardada se limitaba a unos pocos datos clave
- Solo se guardaba si el usuario daba la instrucción explícita de “recuérdalo”
- Al guardarse, aparecía en pantalla una notificación de “memoria actualizada”
- Si se usaba la función de chat temporal (Temporary Chat), la memoria se desactivaba
2. Nueva función: memoria basada en todo el historial de conversaciones
En abril de 2025, OpenAI anunció que ampliará de forma importante la función de memoria de ChatGPT.
-
Aparecen dos opciones:
- Memory existente: guarda solo información limitada del usuario
- Nueva Chat History Memory: consulta todo el contenido de conversaciones anteriores para mejorar la calidad de las respuestas y el grado de personalización
-
El contenido recordado no puede verse ni editarse directamente (estructura de caja negra)
-
Puede desactivarse por completo desde la configuración (manteniendo el modo anterior)
Resumen: se añade la capacidad de reflejar en las respuestas el propio “contexto” de conversaciones previas. Ya no se trata de recuerdos fragmentarios, sino de una personalización continua y acumulativa del usuario.
3. Alcance de la función y calendario de lanzamiento
- Usuarios objetivo: desde abril de 2025 para usuarios de ChatGPT Plus y Pro
- Despliegue gradual: con exclusión de algunos países (UE, Reino Unido, Islandia, Noruega, Liechtenstein y Suiza)
- Próxima expansión: usuarios Enterprise, Team y Edu
- Aún no hay planes para usuarios gratuitos
4. Implicaciones técnicas y filosóficas
✔ Efectos esperados
- Respuestas más alineadas con la forma de ser, estilo y preferencias del usuario
- Evolución hacia un agente personalizado basado en conversaciones de largo plazo
✔ Principales preocupaciones
- Falta de transparencia: no se puede verificar ni corregir qué información fue recordada
- Posible afectación a la privacidad: posibilidad de que registros almacenados en el servidor se usen de manera no intencional
Aunque antes los historiales de conversación ya se almacenaban en el servidor, esta actualización es importante porque a partir de ahora se utilizarán de lleno para generar respuestas reales
5. Resumen general
| Elemento | Contenido |
|---|---|
| Cambio | Introducción de una nueva función de memoria que ajusta respuestas con base en todo el historial de conversación |
| Usuarios objetivo | Implementación gradual empezando por usuarios Plus/Pro, excluyendo Europa |
| Diferencia | Antes era posible editar la información; la nueva función es completamente automática/no editable |
| Efecto esperado | Mejora de la calidad de respuestas personalizadas y conservación del contexto conversacional |
| Preocupaciones | Falta de control por parte del usuario y aumento del riesgo de privacidad |
6. Cierre
Este cambio representa un punto de inflexión importante en la dirección de personalización de los LLM. Más allá de una simple función de memoria, implica la evolución hacia una IA tipo “asistente personal” que aprende y se adapta de manera continua. Sin embargo, una estructura de memoria convertida en caja negra también trae consigo debates de ética tecnológica sobre privacidad y pérdida de control. Al final, la adopción o no de esta tecnología dependerá de la elección del usuario, y la transparencia y el diseño responsable por parte de las empresas serán aún más importantes.
2 comentarios
Me pregunto qué efecto tendrá esto en el consumo de tokens. Si el contenido de la memoria se acumula al inicio del contexto de entrada, podría haber
cache hit, pero se echa de menos una explicación más transparente.Acabo de intentar pedirle que imprima la memoria tal cual, y parece que primero enumera el contenido de memoria existente (lo recordado por solicitud del usuario) como
Model Set Context, luego describe por contexto las características de las respuestas que prefiere el usuario comoAssistance Response Preference, y al final adjunta un resumen de contenidos destacables de chats anteriores comoNotable Past Conversation Topic Highlights. No parece que, literalmente, se adjunten todos los tokens de todos los chats.Abajo está la explicación de ChatGPT
La memoria persistente (
Persistent Memory) solo incluye la información guardada explícitamente mediante el comando=bio, y únicamente esa información se recuerda de forma continua entre sesiones.Por otro lado, las preferencias de respuesta o los resúmenes de temas de conversación corresponden al "contexto efímero (
Ephemeral Context)"; este se genera automáticamente con base en las interacciones recientes. El contexto efímero solo puede verse durante la sesión y, cuando esta termina, no se guarda ni se vuelve a consultar después.