Tolaria - app de macOS de código abierto para gestionar una base de conocimiento en Markdown
(github.com/refactoringhq)- Es una app de escritorio para gestionar una base de conocimiento basada en archivos Markdown; se usa tanto para la gestión personal del conocimiento como para organizar documentación empresarial adaptada al contexto de IA, y también sirve para guardar memoria y procedimientos de OpenClaw·assistant
- Adopta una estructura files-first y Git-first: guarda las notas como archivos Markdown normales y trata cada vault como un repositorio git, asegurando portabilidad e historial de versiones sin necesidad de exportaciones aparte
- Sigue los principios offline-first y zero lock-in: funciona completamente sin conexión, sin depender de cuentas, suscripciones ni la nube, y no pierdes tus datos aunque dejes de usarla
- Está diseñada con un enfoque AI-first but not AI-only: soporta Claude Code y Codex CLI, y otras herramientas de IA también pueden editar directamente vaults basados en archivos; además incluye archivos AGENTS
- Se le fueron añadiendo funciones mientras resolvía problemas reales de uso en espacios de trabajo grandes con más de 10,000 notas; al ser una app de código abierto que usa Markdown estándar y YAML frontmatter, protege tanto la propiedad de los datos como la compatibilidad a largo plazo
Primeros pasos
- La app más reciente se puede descargar desde latest release
- Al ejecutarla por primera vez, puedes clonar el getting started vault
- Dentro de ese vault puedes seguir todo el flujo de uso de la app
Código abierto y entorno de desarrollo local
- Está hecha con Tauri, React y TypeScript, y la guía para ejecutarla localmente y contribuir está en GETTING-STARTED.md
-
Requisitos previos
- Se requiere Node.js 20+, pnpm 8+ y Rust stable
- El entorno de desarrollo está orientado a macOS o Linux
-
Dependencias del sistema en Linux
- Para usar Tauri 2 en Linux se necesitan WebKit2GTK 4.1 y GTK 3
- Arch / Manjaro
- Se requiere instalar
webkit2gtk-4.1,base-devel,curl,wget,file,openssl,appmenu-gtk-module,libappindicator-gtk3,librsvg
- Se requiere instalar
- Debian / Ubuntu 22.04+
- Se requiere instalar
libwebkit2gtk-4.1-dev,build-essential,curl,wget,file,libxdo-dev,libssl-dev,libayatana-appindicator3-dev,librsvg2-dev,libsoup-3.0-dev,patchelf
- Se requiere instalar
- Fedora 38+
- Se requiere instalar
webkit2gtk4.1-devel,openssl-devel,curl,wget,file,libappindicator-gtk3-devel,librsvg2-devel
- Se requiere instalar
- El MCP server incluido sigue lanzando el binario del sistema
nodeen tiempo de ejecución sobre Linux- Si quieres usar flujos de tooling de IA externos, debes instalar Node con el gestor de paquetes de tu distribución
-
Inicio rápido
- Puedes ejecutar el modo mock basado en navegador con
pnpm installypnpm dev - El modo mock basado en navegador se abre en
http://localhost:5173 - La app de escritorio nativa puede ejecutarse con
pnpm tauri dev
- Puedes ejecutar el modo mock basado en navegador con
Documentación técnica
- ARCHITECTURE.md: diseño del sistema, stack tecnológico y flujo de datos
- ABSTRACTIONS.md: abstracciones y modelos principales
- GETTING-STARTED.md: punto de partida para explorar el código base
- ADRs: registros de decisiones de arquitectura
Seguridad
- Si encuentras un problema de seguridad, aceptan reportes privados según el método indicado en SECURITY.md
Licencia
- La licencia es AGPL-3.0-or-later
- El nombre y el logo de Tolaria siguen sujetos a la trademark policy del proyecto
2 comentarios
Hoja de ruta https://tolaria.canny.io/
Opiniones en Hacker News
Esto realmente me encanta. Se siente como todo lo que quería de Obsidian combinado con plugins, pero reunido en una sola app bien diseñada, lo cual es excelente
También tengo una sugerencia. Ojalá sigas siendo open source, pero encuentres una forma de monetizarlo para poder desarrollarlo a tiempo completo. Si hubiera una versión oficial de la app por separado, con gusto pagaría por ella
Y de verdad espero que evites la sobrecarga de funciones. Me encanta el diseño simple de Bear App, pero al final la dejé porque no podía trabajar directamente con archivos markdown. Apps como Obsidian, Notion y Craft siguen agregando funciones, pero aquí parece que ya están todas las funciones esenciales. Ojalá te enfoques en hacer muy bien solo lo esencial, como Bear
Gracias por el buen feedback
Por un día me perdí la oportunidad de hacer esto primero. Aun así, Luca, muy bien hecho. La herramienta se ve muy bien y la estoy probando ahora mismo
Yo estoy creando Sig en https://github.com/adamjramirez/sig-releases, y claramente hay bastante superposición a nivel estructural. macOS, markdown puro, control de versiones con git, y diseñado para el contexto de agentes de IA
La diferencia está en dónde empieza el flujo de trabajo. Tolaria parece fuerte para organizar conocimiento que ya existe, mientras que Sig intenta resolver la etapa anterior: cómo sacar de la cabeza ese conocimiento y pasarlo a archivos. En la práctica, lo que suele determinar la calidad de la salida de la IA es lo que no está documentado. Decisiones tomadas hace 5 minutos en una reunión, acuerdos verbales sin seguimiento, o no el contenido superficial de una conversación sino lo que realmente interpreté de ella
La captura en Sig tiene dos capas. 1) Primero el registro factual, 2) encima de eso agrego mi interpretación personal. Ambas se guardan como markdown en mi máquina. Cuando esté listo para compartirlo en una base de conocimiento del equipo o en un open brain, entonces lo hago público eligiéndolo explícitamente. Por defecto es privado, y el equipo solo puede leerlo cuando yo quiero
Definitivamente lo voy a probar
Ambos hacen falta, pero cumplen su papel en momentos distintos del flujo de trabajo
Parece que últimamente todos están creando su propio sistema llm-wiki. Yo también hice uno, y dentro tengo una lista bastante grande de otros agent memory systems: https://zby.github.io/commonplace/agent-memory-systems/
Voy a agregar el tuyo de inmediato
Hoy también armé una wish list de este tipo de sistemas basada en el material que había reunido: https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
Ojalá pudiéramos colaborar
Tiene MCP integrado por defecto en el SaaS hospedado, instrucciones jerárquicas de LLM a nivel global/equipo/contenedor/nota, y también ofrece un protocolo de notas compartidas para flujos multiagente con Claude/ChatGPT. Si quieres, puedo escribir una página de presentación en el formato que prefieras
También me gustó el documento de wishlist que enlazaste, y me gustaría trabajar en eso contigo
No tengo relación con ellos, solo lo estoy probando
El vacío de captura móvil es realmente grande, y también es una de las principales razones por las que estas herramientas no logran convertirse en apps básicas de uso diario
Un flujo que me funciona bien es configurar una acción en Drafts de iOS para hacer append a un inbox.md diario dentro de un repo git, y sincronizarlo con Working Copy. El archivo Markdown es la única fuente de verdad, y cualquier herramienta en macOS, ya sea Tolaria u Obsidian, lee ese mismo repo tal cual, sin ninguna etapa de conversión
Hay que ajustar algunas cosas al principio, pero la recompensa es grande. La captura móvil y la organización en desktop ocurren sobre los mismos archivos, no con copiar y pegar entre apps distintas ni con pasos de sincronización
Se puede configurar para hacer append a la Daily Note de Obsidian en un vault de iCloud, así que encaja muy bien
También me gusta que no depende de servicios de terceros
⁽¹⁾ https://apps.apple.com/us/app/bebop-quick-notes/id6477824795
Lo uso para recolectar cualquier cosa interesante que encuentro en la web
https://github.com/momentmaker/to
Le envío enlaces web o de herramientas para guardar, o notas de voz para convertirlas en texto
Aun así, definitivamente planeo hacer una versión móvil
Al final termino volviendo seguido a Apple Notes. Estrictamente hablando no es una base de conocimiento ni usa markdown, pero sincroniza bien entre dispositivos y es cómodo de usar desde el teléfono
Tengo curiosidad por saber si tú también sientes esa necesidad, o cómo estás viendo el tema de las notas en móvil
También mantengo notas de largo plazo, como seguimiento de ejercicio o comidas, agregando encabezados con fecha
Esto me funciona mejor que algo como Obsidian móvil, y el propio proceso de copiar y pegar también actúa como un filtro natural
Tengo una pregunta sobre la vista previa de markdown en una MacBook Pro. Quisiera saber cómo hacer que el quick preview de Finder, creo que se llama Quick Look, renderice markdown
Tengo los archivos .md asociados para que siempre se abran con un IDE, pero en la vista previa no se renderizan y eso es un poco incómodo. Dentro del IDE uso una extensión para renderizar md, así que pensé que quizá eso influye. Tal vez algo como una llamada recursiva no quede expuesto a nivel de la extensión de preview, no sé, pero quería saber si recomiendan alguna forma de hacerlo
Me gusta mucho el enfoque de usar markdown aquí
Nosotros en https://voiden.md/ vamos con casi la misma filosofía. offline-first, basado en archivos y con soporte para git
Creo que este formato es precisamente el tipo de cosa que los agentes van a poder aprovechar bastante bien
Nosotros lo hicimos para API, y también es open source. Se puede ver aquí: https://github.com/VoidenHQ/voiden
Últimamente he estado usando octarine. Antes usé Obsidian durante bastante tiempo, pero sin duda también pienso probar esto
[1]: https://octarine.app
Excelente trabajo. Tengo dos comentarios
Parece que el editor no soporta code fence literal. No pude crear un bloque de código escribiendo ```
Y cuando el archivo markdown se vuelve muy grande, el rendimiento no es bueno
Yo estoy haciendo un editor markdown estilo Obsidian para mi producto de base de conocimiento con IA: https://github.com/kenforthewin/atomic-editor
Yo también estoy trabajando en un conjunto de skills y un MCP pequeño enfocados en extraer fácilmente “atoms” a partir de un quick brain dump. Esto también está basado en SQLite + SQLite-vec
El problema del chunking lo esquivo declarando cada sección como chunk, y hago que el LLM reescriba los borradores con una estructura por secciones para que queden bien chunked. Así que hay mucha más redundancia y desaparecen expresiones como “como se explicó arriba”
El lector esperado no es una persona, sino agentes que luego generan textos más legibles para distintos destinatarios. Si asumes que el lector es un expert, creo que el costo de producir atoms revisados en masa baja muchísimo
Me encantaría probar ese flujo de trabajo con Atomic o con Tolaria
Si es puramente para usar como visor y no para agregar otro editor, hice https://mdview.io
Te permite abrir archivos Markdown con una renderización limpia, y también soporta tablas y Mermaid. También sirve para compartirlos con colegas o guardarlos para después