22 puntos por GN⁺ 5 일 전 | 2 comentarios | Compartir por WhatsApp
  • Es una app de escritorio para gestionar una base de conocimiento basada en archivos Markdown; se usa tanto para la gestión personal del conocimiento como para organizar documentación empresarial adaptada al contexto de IA, y también sirve para guardar memoria y procedimientos de OpenClaw·assistant
  • Adopta una estructura files-first y Git-first: guarda las notas como archivos Markdown normales y trata cada vault como un repositorio git, asegurando portabilidad e historial de versiones sin necesidad de exportaciones aparte
  • Sigue los principios offline-first y zero lock-in: funciona completamente sin conexión, sin depender de cuentas, suscripciones ni la nube, y no pierdes tus datos aunque dejes de usarla
  • Está diseñada con un enfoque AI-first but not AI-only: soporta Claude Code y Codex CLI, y otras herramientas de IA también pueden editar directamente vaults basados en archivos; además incluye archivos AGENTS
  • Se le fueron añadiendo funciones mientras resolvía problemas reales de uso en espacios de trabajo grandes con más de 10,000 notas; al ser una app de código abierto que usa Markdown estándar y YAML frontmatter, protege tanto la propiedad de los datos como la compatibilidad a largo plazo

Primeros pasos

  • La app más reciente se puede descargar desde latest release
  • Al ejecutarla por primera vez, puedes clonar el getting started vault
    • Dentro de ese vault puedes seguir todo el flujo de uso de la app

Código abierto y entorno de desarrollo local

  • Está hecha con Tauri, React y TypeScript, y la guía para ejecutarla localmente y contribuir está en GETTING-STARTED.md
  • Requisitos previos

    • Se requiere Node.js 20+, pnpm 8+ y Rust stable
    • El entorno de desarrollo está orientado a macOS o Linux
  • Dependencias del sistema en Linux

    • Para usar Tauri 2 en Linux se necesitan WebKit2GTK 4.1 y GTK 3
    • Arch / Manjaro
      • Se requiere instalar webkit2gtk-4.1, base-devel, curl, wget, file, openssl, appmenu-gtk-module, libappindicator-gtk3, librsvg
    • Debian / Ubuntu 22.04+
      • Se requiere instalar libwebkit2gtk-4.1-dev, build-essential, curl, wget, file, libxdo-dev, libssl-dev, libayatana-appindicator3-dev, librsvg2-dev, libsoup-3.0-dev, patchelf
    • Fedora 38+
      • Se requiere instalar webkit2gtk4.1-devel, openssl-devel, curl, wget, file, libappindicator-gtk3-devel, librsvg2-devel
    • El MCP server incluido sigue lanzando el binario del sistema node en tiempo de ejecución sobre Linux
      • Si quieres usar flujos de tooling de IA externos, debes instalar Node con el gestor de paquetes de tu distribución
  • Inicio rápido

    • Puedes ejecutar el modo mock basado en navegador con pnpm install y pnpm dev
    • El modo mock basado en navegador se abre en http://localhost:5173
    • La app de escritorio nativa puede ejecutarse con pnpm tauri dev

Documentación técnica

Seguridad

  • Si encuentras un problema de seguridad, aceptan reportes privados según el método indicado en SECURITY.md

Licencia

  • La licencia es AGPL-3.0-or-later
  • El nombre y el logo de Tolaria siguen sujetos a la trademark policy del proyecto

2 comentarios

 
tested 1 일 전
 
GN⁺ 5 일 전
Opiniones en Hacker News
  • Esto realmente me encanta. Se siente como todo lo que quería de Obsidian combinado con plugins, pero reunido en una sola app bien diseñada, lo cual es excelente
    También tengo una sugerencia. Ojalá sigas siendo open source, pero encuentres una forma de monetizarlo para poder desarrollarlo a tiempo completo. Si hubiera una versión oficial de la app por separado, con gusto pagaría por ella
    Y de verdad espero que evites la sobrecarga de funciones. Me encanta el diseño simple de Bear App, pero al final la dejé porque no podía trabajar directamente con archivos markdown. Apps como Obsidian, Notion y Craft siguen agregando funciones, pero aquí parece que ya están todas las funciones esenciales. Ojalá te enfoques en hacer muy bien solo lo esencial, como Bear

    • Me gusta muchísimo Bear. Fue una de las apps que más influyó en Tolaria, así que probablemente por eso te gustó más
      Gracias por el buen feedback
  • Por un día me perdí la oportunidad de hacer esto primero. Aun así, Luca, muy bien hecho. La herramienta se ve muy bien y la estoy probando ahora mismo
    Yo estoy creando Sig en https://github.com/adamjramirez/sig-releases, y claramente hay bastante superposición a nivel estructural. macOS, markdown puro, control de versiones con git, y diseñado para el contexto de agentes de IA
    La diferencia está en dónde empieza el flujo de trabajo. Tolaria parece fuerte para organizar conocimiento que ya existe, mientras que Sig intenta resolver la etapa anterior: cómo sacar de la cabeza ese conocimiento y pasarlo a archivos. En la práctica, lo que suele determinar la calidad de la salida de la IA es lo que no está documentado. Decisiones tomadas hace 5 minutos en una reunión, acuerdos verbales sin seguimiento, o no el contenido superficial de una conversación sino lo que realmente interpreté de ella
    La captura en Sig tiene dos capas. 1) Primero el registro factual, 2) encima de eso agrego mi interpretación personal. Ambas se guardan como markdown en mi máquina. Cuando esté listo para compartirlo en una base de conocimiento del equipo o en un open brain, entonces lo hago público eligiéndolo explícitamente. Por defecto es privado, y el equipo solo puede leerlo cuando yo quiero

    • Si git versioned significa los archivos .md en sí, entonces me interesa de inmediato. Yo también estoy procesando archivos con un flujo basado en git para decirle a Claude qué debe mirar
      Definitivamente lo voy a probar
    • Creo que esa distinción es muy acertada. Tolaria es como una biblioteca y Sig como una grabadora de campo
      Ambos hacen falta, pero cumplen su papel en momentos distintos del flujo de trabajo
  • Parece que últimamente todos están creando su propio sistema llm-wiki. Yo también hice uno, y dentro tengo una lista bastante grande de otros agent memory systems: https://zby.github.io/commonplace/agent-memory-systems/
    Voy a agregar el tuyo de inmediato
    Hoy también armé una wish list de este tipo de sistemas basada en el material que había reunido: https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
    Ojalá pudiéramos colaborar

    • Si estás reuniendo este tipo de cosas, Hjarni también podría entrar en la categoría source-only junto con Fintool y Supermemory
      Tiene MCP integrado por defecto en el SaaS hospedado, instrucciones jerárquicas de LLM a nivel global/equipo/contenedor/nota, y también ofrece un protocolo de notas compartidas para flujos multiagente con Claude/ChatGPT. Si quieres, puedo escribir una página de presentación en el formato que prefieras
      También me gustó el documento de wishlist que enlazaste, y me gustaría trabajar en eso contigo
    • También valdría la pena agregar esto a la lista https://github.com/Signet-AI/signetai
      No tengo relación con ellos, solo lo estoy probando
    • Estaría bueno que esa lista también incluyera herramientas para neovim
  • El vacío de captura móvil es realmente grande, y también es una de las principales razones por las que estas herramientas no logran convertirse en apps básicas de uso diario
    Un flujo que me funciona bien es configurar una acción en Drafts de iOS para hacer append a un inbox.md diario dentro de un repo git, y sincronizarlo con Working Copy. El archivo Markdown es la única fuente de verdad, y cualquier herramienta en macOS, ya sea Tolaria u Obsidian, lee ese mismo repo tal cual, sin ninguna etapa de conversión
    Hay que ajustar algunas cosas al principio, pero la recompensa es grande. La captura móvil y la organización en desktop ocurren sobre los mismos archivos, no con copiar y pegar entre apps distintas ni con pasos de sincronización

    • Mi opción preferida es Bebop. Puedes abrirla de inmediato y guardar una idea o nota con un solo toque, y también puedes guardar enlaces desde la share sheet
      Se puede configurar para hacer append a la Daily Note de Obsidian en un vault de iCloud, así que encaja muy bien
      También me gusta que no depende de servicios de terceros
      ⁽¹⁾ https://apps.apple.com/us/app/bebop-quick-notes/id6477824795
    • Yo también hice hace poco algo parecido con la filosofía de any device. Es un acceso vía bot de Telegram, y como el creador de esta app, uso un repo privado de Github como única fuente de verdad
      Lo uso para recolectar cualquier cosa interesante que encuentro en la web
      https://github.com/momentmaker/to
    • Yo prácticamente resolví este problema con OpenClaw. Si se lo envío por Telegram, me genera una nota bastante buena dentro de Tolaria y además la conecta con contenido existente y elementos relacionados
      Le envío enlaces web o de herramientas para guardar, o notas de voz para convertirlas en texto
      Aun así, definitivamente planeo hacer una versión móvil
  • Al final termino volviendo seguido a Apple Notes. Estrictamente hablando no es una base de conocimiento ni usa markdown, pero sincroniza bien entre dispositivos y es cómodo de usar desde el teléfono
    Tengo curiosidad por saber si tú también sientes esa necesidad, o cómo estás viendo el tema de las notas en móvil

    • Yo uso Apple Notes para captura rápida, y lo que vale la pena conservar lo paso en la Mac con copiar y pegar al daily note de Obsidian o a una nota específica
      También mantengo notas de largo plazo, como seguimiento de ejercicio o comidas, agregando encabezados con fecha
      Esto me funciona mejor que algo como Obsidian móvil, y el propio proceso de copiar y pegar también actúa como un filtro natural
  • Tengo una pregunta sobre la vista previa de markdown en una MacBook Pro. Quisiera saber cómo hacer que el quick preview de Finder, creo que se llama Quick Look, renderice markdown
    Tengo los archivos .md asociados para que siempre se abran con un IDE, pero en la vista previa no se renderizan y eso es un poco incómodo. Dentro del IDE uso una extensión para renderizar md, así que pensé que quizá eso influye. Tal vez algo como una llamada recursiva no quede expuesto a nivel de la extensión de preview, no sé, pero quería saber si recomiendan alguna forma de hacerlo

  • Me gusta mucho el enfoque de usar markdown aquí
    Nosotros en https://voiden.md/ vamos con casi la misma filosofía. offline-first, basado en archivos y con soporte para git
    Creo que este formato es precisamente el tipo de cosa que los agentes van a poder aprovechar bastante bien
    Nosotros lo hicimos para API, y también es open source. Se puede ver aquí: https://github.com/VoidenHQ/voiden

  • Últimamente he estado usando octarine. Antes usé Obsidian durante bastante tiempo, pero sin duda también pienso probar esto
    [1]: https://octarine.app

  • Excelente trabajo. Tengo dos comentarios
    Parece que el editor no soporta code fence literal. No pude crear un bloque de código escribiendo ```
    Y cuando el archivo markdown se vuelve muy grande, el rendimiento no es bueno
    Yo estoy haciendo un editor markdown estilo Obsidian para mi producto de base de conocimiento con IA: https://github.com/kenforthewin/atomic-editor

    • Atomic se ve bastante interesante, sobre todo la parte de wiki synthesis
      Yo también estoy trabajando en un conjunto de skills y un MCP pequeño enfocados en extraer fácilmente “atoms” a partir de un quick brain dump. Esto también está basado en SQLite + SQLite-vec
      El problema del chunking lo esquivo declarando cada sección como chunk, y hago que el LLM reescriba los borradores con una estructura por secciones para que queden bien chunked. Así que hay mucha más redundancia y desaparecen expresiones como “como se explicó arriba”
      El lector esperado no es una persona, sino agentes que luego generan textos más legibles para distintos destinatarios. Si asumes que el lector es un expert, creo que el costo de producir atoms revisados en masa baja muchísimo
      Me encantaría probar ese flujo de trabajo con Atomic o con Tolaria
  • Si es puramente para usar como visor y no para agregar otro editor, hice https://mdview.io
    Te permite abrir archivos Markdown con una renderización limpia, y también soporta tablas y Mermaid. También sirve para compartirlos con colegas o guardarlos para después