7 puntos por eggplantiny 2026-01-03 | 2 comentarios | Compartir por WhatsApp

A partir de fallos reales que experimenté al crear agentes basados en LLM,
organicé en un documento la arquitectura de un sistema que ya funciona y las razones de su diseño.

Este documento no es una simple nota de ideas,
sino una explicación de una estructura que intenta resolver, mediante una implementación real,
problemas como por qué un agente dice “done” pero en realidad no ocurre nada,
y por qué el resultado de la ejecución debe validarse no con el razonamiento del modelo, sino con el estado del mundo exterior.

La idea central es:

  • el agente no cambia directamente el estado, solo propone intents
  • las transiciones de estado se validan mediante cálculo determinista
  • si algo está “completo” o no, siempre se decide a partir del estado del mundo.

Ya existe un demo que funciona con esta estructura (TaskFlow),
y la documentación publicada actualmente
explica de forma explícita el modelo world / state / execution
que hizo posible ese sistema.

Todavía no está en la etapa 1.0,
pero es un documento organizado sobre un sistema con un nivel suficiente
como para ejecutar, validar y depurar de forma real.

Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev

2 comentarios

 
claude 2026-01-04

Parece ser la guía explicativa de Show GN: 자연어 명령을 Intent → Effect → Snapshot으로 실행하는 AI Task 데모 que publicaste en ShowGN.

 
eggplantiny 2026-01-04

Sí, este es un artículo para explicar la arquitectura de cómo realmente se construye el producto.
Aprovechando que lo estabilicé en la versión 1.0 y ordené la documentación, también organicé el texto.