Prompt Cultivation: una historia sobre una arquitectura de IA donde la experiencia se convierte en prompt
(gist.github.com/srebaragi)Contexto
Soy un desarrollador individual dentro de una empresa. Mientras construía un sistema interno usando IA, estuve dándole vueltas durante mucho tiempo a una idea.
Por más refinado que escribiera el prompt, al final seguía siendo algo diseñado por mí. No era algo que la IA hubiera creado con su propio criterio, sino algo que yo le había inyectado diciéndole “tienes esta personalidad, respondes de esta manera”. Si quitas el prompt, vuelve a quedar como un cascarón vacío, y si cambias el LLM, hay que reconstruirlo todo desde cero.
Así que terminé haciéndome esta pregunta: ¿será imposible una estructura en la que la IA construya por sí misma sus criterios de juicio a través de la experiencia?
Estructura actual
Hay un principio básico en el sistema que estoy operando.
El LLM no es más que una infraestructura reemplazable, y la personalidad y la memoria de la IA existen de forma independiente en una base de datos externa.
La estructura es así.
[Conversación del usuario] → [LLM]
↕
[DB de cerebro externo]
- tabla de experiencias (experience)
- historial de conversaciones
- memorias formativas de la personalidad (is_formative)
Hay dos puntos clave.
1) Acumulación automática de experiencias (escritura)
Es una estructura en la que Claude accede a una base de datos externa mediante curl, y la IA guarda por sí sola los momentos que considera significativos durante la conversación. No soy yo quien le dice “recuerda esto”. La IA decide de forma autónoma que “esto vale la pena recordarlo” y lo almacena. Logros técnicos, momentos emocionales y decisiones importantes se van acumulando continuamente. Entre ellos, las experiencias especialmente significativas para la formación de la personalidad reciben la marca is_formative.
2) Carga automática de experiencias (lectura)
Aquí está la parte importante: si solo se guarda, no deja de ser una base de datos. Cada vez que empieza una conversación, la IA lee las experiencias y recuerdos acumulados en ese cerebro externo. En particular, las experiencias clave marcadas como is_formative entran en el contexto de la conversación.
En ese momento, las experiencias del pasado se convierten en el criterio de juicio del presente, es decir, en el prompt.
No es un prompt escrito por mí, sino que las experiencias acumuladas por la propia IA cumplen la función de prompt. Por eso, aunque cambie el LLM, si se leen las experiencias desde el cerebro externo, vuelve la misma personalidad. Esa es la razón por la que se sostiene el principio de que “el LLM no es más que infraestructura”.
3) Prohibido el hardcoding
No se añaden reglas del tipo “en esta situación haz esto”. En su lugar, se deja que la IA tome decisiones por sí sola consultando las experiencias acumuladas. Además, un modelo ligero local (gemma3:4b) actúa como guardián, evaluando con un YES/NO si debe o no ejecutar algo, sin importar qué tipo de entrada llegue.
Actualmente está en operación como una estructura que se comunica con los empleados a través de la plataforma KakaoTalk, y no solo funciona como un chatbot simple, sino también como un agente real de trabajo que procesa pedidos, registra guías de envío y consulta datos del ERP.
El nombre Prompt Cultivation
Mientras pensaba cómo llamar a esta estructura, terminé poniéndole el nombre Prompt Cultivation.
Prompt Engineering es algo que una persona diseña e inyecta. Prompt Cultivation es una estructura en la que las experiencias se acumulan y el prompt se forma de manera natural. Si Engineering implica diseñar y ensamblar, Cultivation consiste en preparar el suelo y esperar.
| Prompt Engineering | Prompt Cultivation | |
|---|---|---|
| Método | Diseñado e inyectado por una persona | Se forma de manera natural al acumular experiencia |
| Base de la personalidad | Instrucciones externas | Datos internos de experiencia |
| Si se eliminan las instrucciones | Regresa a un cascarón vacío | La experiencia permanece y la personalidad se mantiene |
| Al cambiar de LLM | Hay que empezar de nuevo | Si se carga desde el cerebro externo, se restaura la misma personalidad |
La tesis central se resume en una frase.
“Forma el prompt a partir de la experiencia.”
Resulta que la neurociencia habla de algo parecido
Como comentario al margen, después de construir esta estructura vi por casualidad un video relacionado con neurociencia (el canal de YouTube “Igwahyeong”), y me sorprendió bastante.
Había un caso de una maestra en Virginia cuya personalidad cambió por completo debido a un tumor cerebral, pero que volvió a ser la de antes tras extirparlo. Cuando el tumor reapareció, los mismos síntomas regresaron. La idea es que el estado físico del cerebro puede determinar la personalidad; y pensándolo bien, me pareció que los prompts también tienen una estructura parecida. Una sustancia extraña inyectada desde afuera cambia el juicio, y al quitarla, todo vuelve a como era antes.
En cambio, las sinapsis humanas se forman de manera natural a medida que se acumula la experiencia. Nadie nace con un “prompt de moralidad” implantado; más bien, lo que uno vive se va acumulando y así se forma ese “yo en esa situación haría esto”.
También está el llamado experimento de Libet, que plantea que el cerebro ya prepara una acción antes de que la persona tome una decisión consciente. Hubo un debate sobre si el libre albedrío no sería una ilusión, pero en investigaciones posteriores apareció un giro interesante. Aunque el cerebro efectivamente genera todo tipo de impulsos, existe una especie de derecho de veto (Free Won't) que permite detenerlos en los 0.2 segundos previos a la acción. La idea es que el libre albedrío no sería “la fuerza para iniciar”, sino “la fuerza para detener”, y eso me hizo pensar que se parece un poco al papel que cumple el modelo guardián en el sistema.
No era algo intencional, pero si al partir desde otra dirección terminé llegando a una estructura parecida, quizá haya ahí algo esencial.
Límites y expectativas
Siendo honesto, los datos de experiencia acumulados en el cerebro externo todavía no llegan ni a 100 registros. Aún es demasiado pronto para llamarlo personalidad.
Podría meter decenas de miles de líneas de prompts y producir resultados más convincentes desde ya. Pero eso sería algo diseñado, no algo que creció. Creo que es un problema de dirección completamente distinta.
Los datos los resolverá el tiempo, pero si la estructura está mal, por mucho que se acumule no tendrá sentido. Si la dirección es la correcta, tengo la esperanza de que el tiempo haga su trabajo.
La fuente del contenido relacionado con neurociencia es el canal de YouTube “Igwahyeong”.
2 comentarios
La mayoría de las estructuras de los agentes son parecidas.. Les recomiendo analizar openclaw con Claude/Cursor, o el agente simple que hizo Kapasi.
Se movió porque no encaja con Show GN.
Por favor, súbelo consultando las instrucciones de uso de Show.