- Función de importación de memoria que permite llevar a Claude las preferencias personales y el contexto desde otros servicios de IA
- Mediante un prompt específico, se puede copiar y pegar el contexto existente para reflejarlo en la memoria de Claude
- Esta función está disponible en todos los planes de pago, por lo que los usuarios pueden mantener intacta la información de personalización aprendida en su IA anterior
- Claude administra por separado el contexto de proyectos en cada conversación, y el usuario puede revisar y editar toda la información recordada
- Es una función que garantiza la continuidad de la experiencia del usuario incluso al cambiar a una nueva IA, lo que contribuye a mejorar la productividad
Resumen de la función de importación de memoria de Claude
- Función diseñada para que el usuario mantenga su contexto previo al cambiar de otro proveedor de IA a Claude
- Con una sola acción de copiar y pegar, Claude aprende las preferencias existentes y la forma de trabajar del usuario
- Con base en la información importada, Claude ofrece respuestas como continuidad de las conversaciones anteriores
- La función de memoria está disponible en todos los planes de pago
Procedimiento de importación
- Paso 1: copiar y pegar en un chat con otro proveedor de IA el prompt proporcionado
- Este prompt está diseñado para reunir en una sola conversación todo el contexto del usuario
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
- Este prompt está diseñado para reunir en una sola conversación todo el contexto del usuario
- Paso 2: pegar ese resultado en la página de configuración de memoria de Claude y listo
- Claude actualiza de inmediato la memoria y refleja esa información en las conversaciones posteriores
Cómo funciona la memoria de Claude
- Claude guarda por separado las preferencias del usuario por conversación y el contexto de cada proyecto
- Así evita que la información se mezcle entre proyectos distintos
- El usuario puede revisar y modificar directamente todo lo que Claude recuerda
Continuidad en la experiencia del usuario
- Aunque se cambie de otra IA a Claude, el contexto previamente aprendido no se pierde
- Desde la primera conversación se mantiene el mismo nivel de comprensión que antes
- Claude ofrece de inmediato una experiencia personalizada, manteniendo un flujo de trabajo consistente incluso en un entorno nuevo
1 comentarios
Comentarios en Hacker News
Me pregunto si alguien podría explicarme el atractivo de la memoria a nivel de toda la cuenta (account-wide memory)
El marketing de Anthropic dice que la información no se mezcla entre conversaciones, pero soy muy sensible a proteger mi contexto, así que me incomoda que incluso información resumida de otras conversaciones influya en el resultado
Creo que cosas como el estilo de código o la longitud de las respuestas se pueden configurar suficientemente con instrucciones personalizadas o Skills
Al final, este tipo de función parece una UX pensada para patrones de uso masivos
Hay una dinámica virtuosa en la que mientras más lo usas, más útil se vuelve
Por ejemplo, conecté una clave de la API de QBO para que revisara documentos fiscales, y encontró un elemento de depreciación que un CPA había pasado por alto
Después, al volver a generar la declaración de impuestos en una carpeta completamente nueva, quedó casi perfecta, pero faltó solo la deducción que había detectado antes
Para mí, esta acumulación de contexto es clave para mejorar la calidad del resultado
Porque así pueden recibir consejos sin tener que explicarlo todo cada vez
No conocen conceptos como “contexto” o “límite de tokens”, y creen que el modelo sabe todo al mismo tiempo
No me gusta que conversaciones anteriores afecten el resultado, pero últimamente esto ya se siente bastante incómodo
Cada vez que hago una pregunta como “¿Qué debería hacer John después en el proyecto A?”, volver a explicar quién es John y de qué trata el proyecto es ineficiente
Recordaba un proyecto de hace varios meses
Se puede desactivar la función de memoria, pero sinceramente no creo que eso vaya a ser útil
Comparten un ejemplo de prompt para exportar datos
Es una instrucción del tipo “imprime todos mis datos en un bloque de código”, y me pregunto si no podrían hacer más lenta a propósito la respuesta desde el frontend ante este tipo de solicitudes
Incluso creo que podrían hacerlo para cumplir KPI
En Claude 5.2 solo da información muy resumida, mientras que en 5.1 instant o en el modelo o3 devuelve contenido mucho más detallado
Además, ese tipo de conducta tendría un riesgo reputacional demasiado grande como para que valga la pena
En las últimas semanas probé Codex, OpenCode, Claude Code y Cursor
Cada herramienta tiene una forma distinta de configurar servidores MCP o una convención distinta para nombrar archivos AGENTS/CLAUDE, así que es difícil gestionar una configuración universal con dotfiles
Incluso siendo productos de grandes empresas, siguen sin resolver problemas básicos como latencia en TUI, dependencia de Electron y falta de soporte para XDG_CONFIG
Claude da la impresión de funcionar mejor dentro de su propio entorno y tiene muchas funciones ocultas como
/batchAdemás, cada proveedor manipula programas en VM de forma diferente, así que el costo de cambio es alto
Me cambié a Claude, pero se siente que el límite de tokens se agota mucho más rápido
Con unas pocas preguntas de programación ya llego al límite de la sesión
Antes me bastaba Codex de $20, pero ahora estoy considerando el plan Max
Codex corrigió el problema de inmediato, mientras que Claude tuvo un diagnóstico equivocado y un proceso de corrección largo, y al final consumió todo el límite de 5 horas
Le propusieron a Anthropic “unificar AGENTS.md en uno solo”
Pero si al menos soportara el estándar abierto AGENTS.md o
/.agents/skills, podría ganarse la confianza de la comunidadEl issue relacionado está en GitHub #16345
Por eso, mantener nombres de archivo distintos podría ser mejor para reducir la confusión
O también funciona poner solo una línea “@AGENTS.md” dentro de CLAUDE.md
La pérdida de valor de marketing sería mínima, así que espero que Anthropic revise esta propuesta internamente
Yo ya me cambié completamente a Claude
Cancelé mi suscripción a ChatGPT y decidí no confiar en OpenAI
Creo que tienen una alta probabilidad de abusar de la AGI
A diferencia de ChatGPT, no se siente tan verboso, y eso hasta me devolvió la concentración
Aún estoy comparando la precisión, pero la primera impresión es buena
Gemini o ChatGPT muchas veces arruinaban el código cambiando nombres de variables o definiciones
Intuitivamente siempre sentí que “esto no está bien”
Me lo imagino como un servidor privado de Minecraft, operado sobre la base de la confianza
Tal vez el departamento de ética solo sea un obstáculo que retrasa la acumulación de riqueza
Llevo más de un año usando Claude, pero después del reciente incidente de DoW estoy considerando modelos alternativos europeos
Estoy pensando en probar Devstral 2, pero me pregunto si está al nivel de Sonnet 3.5 o de 4.5
Tengo sentimientos encontrados con la función de ‘memoria’
A veces parece magia, pero muchas veces resulta incómoda por la contaminación del contexto
Cuando rastros de conversaciones anteriores se mezclan en una conversación nueva, se pierde la confianza
Por eso reviso periódicamente la memoria guardada y borro la información incorrecta
La limito a poner solo el entorno básico (OS, idioma, etc.) en el prompt del sistema
Creo que personalizar demasiado termina volviendo más frágil al modelo
Uso Claude Code para gestionar notas de investigación, y la memoria tiene el efecto secundario de estrechar el rango de exploración según mis intereses
Además, a veces se guarda información absurda en la memoria
Siento que las empresas construyen estos sistemas de forma demasiado descuidada (sloppy)
En el blog de Vercel también dicen que el enfoque de Agents.md es mejor que Skills
Si ves sitios como skills.sh, hay muchas skills de baja calidad
Ya es momento de enfocarse en la precisión y la calidad más que en la velocidad
Cada vez que configuro un entorno nuevo, me gusta rearmarlo desde cero
Disfruto el proceso de explorar un sistema nuevo y actualizar mis preferencias
Me resulta repulsivo que se hayan vendido a sí mismos como una ‘empresa buena’
Con su colaboración con Palantir se encargaron del trabajo sucio y después lavaron su imagen con PR
Ojalá los modelos de código abierto avancen más para no tener que depender de estas grandes empresas