16 puntos por GN⁺ 2026-03-02 | 1 comentarios | Compartir por WhatsApp
  • Función de importación de memoria que permite llevar a Claude las preferencias personales y el contexto desde otros servicios de IA
  • Mediante un prompt específico, se puede copiar y pegar el contexto existente para reflejarlo en la memoria de Claude
  • Esta función está disponible en todos los planes de pago, por lo que los usuarios pueden mantener intacta la información de personalización aprendida en su IA anterior
  • Claude administra por separado el contexto de proyectos en cada conversación, y el usuario puede revisar y editar toda la información recordada
  • Es una función que garantiza la continuidad de la experiencia del usuario incluso al cambiar a una nueva IA, lo que contribuye a mejorar la productividad

Resumen de la función de importación de memoria de Claude

  • Función diseñada para que el usuario mantenga su contexto previo al cambiar de otro proveedor de IA a Claude
    • Con una sola acción de copiar y pegar, Claude aprende las preferencias existentes y la forma de trabajar del usuario
    • Con base en la información importada, Claude ofrece respuestas como continuidad de las conversaciones anteriores
  • La función de memoria está disponible en todos los planes de pago

Procedimiento de importación

  • Paso 1: copiar y pegar en un chat con otro proveedor de IA el prompt proporcionado
    • Este prompt está diseñado para reunir en una sola conversación todo el contexto del usuario

      I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.

  • Paso 2: pegar ese resultado en la página de configuración de memoria de Claude y listo
    • Claude actualiza de inmediato la memoria y refleja esa información en las conversaciones posteriores

Cómo funciona la memoria de Claude

  • Claude guarda por separado las preferencias del usuario por conversación y el contexto de cada proyecto
    • Así evita que la información se mezcle entre proyectos distintos
  • El usuario puede revisar y modificar directamente todo lo que Claude recuerda

Continuidad en la experiencia del usuario

  • Aunque se cambie de otra IA a Claude, el contexto previamente aprendido no se pierde
    • Desde la primera conversación se mantiene el mismo nivel de comprensión que antes
  • Claude ofrece de inmediato una experiencia personalizada, manteniendo un flujo de trabajo consistente incluso en un entorno nuevo

1 comentarios

 
GN⁺ 2026-03-02
Comentarios en Hacker News
  • Me pregunto si alguien podría explicarme el atractivo de la memoria a nivel de toda la cuenta (account-wide memory)
    El marketing de Anthropic dice que la información no se mezcla entre conversaciones, pero soy muy sensible a proteger mi contexto, así que me incomoda que incluso información resumida de otras conversaciones influya en el resultado
    Creo que cosas como el estilo de código o la longitud de las respuestas se pueden configurar suficientemente con instrucciones personalizadas o Skills
    Al final, este tipo de función parece una UX pensada para patrones de uso masivos

    • Yo uso Claude Code en varias áreas de la empresa: desarrollo de apps internas, interfaz con APIs de SaaS, trabajo general, etc.
      Hay una dinámica virtuosa en la que mientras más lo usas, más útil se vuelve
      Por ejemplo, conecté una clave de la API de QBO para que revisara documentos fiscales, y encontró un elemento de depreciación que un CPA había pasado por alto
      Después, al volver a generar la declaración de impuestos en una carpeta completamente nueva, quedó casi perfecta, pero faltó solo la deducción que había detectado antes
      Para mí, esta acumulación de contexto es clave para mejorar la calidad del resultado
    • La mayoría de los usuarios comunes quiere que el LLM recuerde sus gustos e intereses
      Porque así pueden recibir consejos sin tener que explicarlo todo cada vez
      No conocen conceptos como “contexto” o “límite de tokens”, y creen que el modelo sabe todo al mismo tiempo
    • Cuando uso Claude en línea, suelo usar mucho el modo incógnito
      No me gusta que conversaciones anteriores afecten el resultado, pero últimamente esto ya se siente bastante incómodo
    • Más bien, siento que sin memoria a nivel de cuenta no se puede usar bien un LLM
      Cada vez que hago una pregunta como “¿Qué debería hacer John después en el proyecto A?”, volver a explicar quién es John y de qué trata el proyecto es ineficiente
    • Cuando usé ChatGPT un momento, me sorprendió ver una frase como “...since you already are using SQLite...”
      Recordaba un proyecto de hace varios meses
      Se puede desactivar la función de memoria, pero sinceramente no creo que eso vaya a ser útil
  • Comparten un ejemplo de prompt para exportar datos
    Es una instrucción del tipo “imprime todos mis datos en un bloque de código”, y me pregunto si no podrían hacer más lenta a propósito la respuesta desde el frontend ante este tipo de solicitudes
    Incluso creo que podrían hacerlo para cumplir KPI

    • De hecho, sí parece que hay una manipulación así
      En Claude 5.2 solo da información muy resumida, mientras que en 5.1 instant o en el modelo o3 devuelve contenido mucho más detallado
    • Claro que podrían usar ese tipo de truco, pero también se podría aprovechar una instrucción de “no lo hagas” al revés para forzarlo
      Además, ese tipo de conducta tendría un riesgo reputacional demasiado grande como para que valga la pena
  • En las últimas semanas probé Codex, OpenCode, Claude Code y Cursor
    Cada herramienta tiene una forma distinta de configurar servidores MCP o una convención distinta para nombrar archivos AGENTS/CLAUDE, así que es difícil gestionar una configuración universal con dotfiles
    Incluso siendo productos de grandes empresas, siguen sin resolver problemas básicos como latencia en TUI, dependencia de Electron y falta de soporte para XDG_CONFIG
    Claude da la impresión de funcionar mejor dentro de su propio entorno y tiene muchas funciones ocultas como /batch
    Además, cada proveedor manipula programas en VM de forma diferente, así que el costo de cambio es alto

  • Me cambié a Claude, pero se siente que el límite de tokens se agota mucho más rápido
    Con unas pocas preguntas de programación ya llego al límite de la sesión
    Antes me bastaba Codex de $20, pero ahora estoy considerando el plan Max

    • Yo también estoy probando Claude Pro, pero comparado con ChatGPT todavía no me impresiona
      Codex corrigió el problema de inmediato, mientras que Claude tuvo un diagnóstico equivocado y un proceso de corrección largo, y al final consumió todo el límite de 5 horas
    • En cambio, a mí me parece que Codex 5.2 tiene mejor eficiencia para programar y es mucho más barato que Claude
  • Le propusieron a Anthropic “unificar AGENTS.md en uno solo”

    • Antes pensaba que Anthropic también era no estándar, igual que OpenAI
      Pero si al menos soportara el estándar abierto AGENTS.md o /.agents/skills, podría ganarse la confianza de la comunidad
      El issue relacionado está en GitHub #16345
    • Claude también lee archivos de contexto de carpetas superiores, pero Codex no
      Por eso, mantener nombres de archivo distintos podría ser mejor para reducir la confusión
    • Basta con hacer un enlace simbólico CLAUDE.md → AGENTS.md
      O también funciona poner solo una línea “@AGENTS.md” dentro de CLAUDE.md
    • Es un buen momento para facilitar la migración de usuarios de Codex
      La pérdida de valor de marketing sería mínima, así que espero que Anthropic revise esta propuesta internamente
  • Yo ya me cambié completamente a Claude
    Cancelé mi suscripción a ChatGPT y decidí no confiar en OpenAI
    Creo que tienen una alta probabilidad de abusar de la AGI

    • Probé Claude por primera vez y me pareció fresco que sus respuestas fueran cortas y al grano
      A diferencia de ChatGPT, no se siente tan verboso, y eso hasta me devolvió la concentración
      Aún estoy comparando la precisión, pero la primera impresión es buena
    • Claude es el único modelo que saca código de nivel de producción desde el primer prompt
      Gemini o ChatGPT muchas veces arruinaban el código cambiando nombres de variables o definiciones
    • No confío en OpenAI desde Sam Altman y el tema del escaneo de iris de Worldcoin
      Intuitivamente siempre sentí que “esto no está bien”
    • Algún día quiero montar un pequeño servidor privado en mi sótano, cobrarles $10 al mes a mis amigos y compartir modelos
      Me lo imagino como un servidor privado de Minecraft, operado sobre la base de la confianza
    • Puede que el “verdadero abuso” haya sido el objetivo desde el principio
      Tal vez el departamento de ética solo sea un obstáculo que retrasa la acumulación de riqueza
  • Llevo más de un año usando Claude, pero después del reciente incidente de DoW estoy considerando modelos alternativos europeos
    Estoy pensando en probar Devstral 2, pero me pregunto si está al nivel de Sonnet 3.5 o de 4.5

  • Tengo sentimientos encontrados con la función de ‘memoria’
    A veces parece magia, pero muchas veces resulta incómoda por la contaminación del contexto
    Cuando rastros de conversaciones anteriores se mezclan en una conversación nueva, se pierde la confianza
    Por eso reviso periódicamente la memoria guardada y borro la información incorrecta
    La limito a poner solo el entorno básico (OS, idioma, etc.) en el prompt del sistema
    Creo que personalizar demasiado termina volviendo más frágil al modelo

    • Pienso algo parecido
      Uso Claude Code para gestionar notas de investigación, y la memoria tiene el efecto secundario de estrechar el rango de exploración según mis intereses
      Además, a veces se guarda información absurda en la memoria
      Siento que las empresas construyen estos sistemas de forma demasiado descuidada (sloppy)
      En el blog de Vercel también dicen que el enfoque de Agents.md es mejor que Skills
      Si ves sitios como skills.sh, hay muchas skills de baja calidad
      Ya es momento de enfocarse en la precisión y la calidad más que en la velocidad
  • Cada vez que configuro un entorno nuevo, me gusta rearmarlo desde cero
    Disfruto el proceso de explorar un sistema nuevo y actualizar mis preferencias

  • Me resulta repulsivo que se hayan vendido a sí mismos como una ‘empresa buena’
    Con su colaboración con Palantir se encargaron del trabajo sucio y después lavaron su imagen con PR
    Ojalá los modelos de código abierto avancen más para no tener que depender de estas grandes empresas