- Asistente de IA de ejecución local desarrollado en Rust, que funciona por completo en el dispositivo personal sin conexión a internet y sin que los datos se envíen al exterior
- Estructura de archivo ejecutable único, que puede ejecutarse sin instalar Node.js, Docker ni Python, en forma de un binario ligero de unos 27 MB
- Sistema de memoria persistente que ofrece memoria a largo plazo y funciones de búsqueda mediante un repositorio de conocimiento basado en Markdown, SQLite FTS5 y semantic search
- Compatible con CLI, web UI y GUI de escritorio, además de múltiples proveedores de LLM como OpenAI, Anthropic y Ollama
- Compatible con el formato OpenClaw, lo que permite realizar tareas autónomas usando archivos SOUL, MEMORY y HEARTBEAT
Resumen general
- LocalGPT es un asistente de IA centrado en dispositivos locales, una aplicación basada en Rust con memoria persistente y funciones de trabajo autónomo
- Se ejecuta completamente en el dispositivo personal sin depender de servidores externos
- Inspirado en el proyecto OpenClaw y manteniendo compatibilidad con este
- Se puede instalar con el comando
cargo install localgpt, con opción de incluir GUI o usarlo en modo headless
Características principales
- Arquitectura de binario único, sin necesidad de Node.js, Docker ni Python
- Conservación local de datos: toda la memoria y la configuración se almacenan dentro del dispositivo del usuario
- Memoria persistente: usa un repositorio de conocimiento basado en archivos Markdown, con soporte para búsqueda rápida y búsqueda semántica mediante SQLite FTS5 y sqlite-vec
- Función de heartbeat autónomo para ejecutar tareas en segundo plano
- Varias interfaces: CLI, web UI y GUI de escritorio
- Soporte para múltiples LLM: integración con Anthropic (Claude), OpenAI, Ollama y otros
Cómo funciona
- La memoria se guarda en el directorio
~/.localgpt/workspace/, con la siguiente estructura principal de archivos
MEMORY.md: almacenamiento de conocimiento a largo plazo
HEARTBEAT.md: cola de tareas autónomas
SOUL.md: personalidad y directrices de comportamiento
knowledge/: repositorio de conocimiento estructurado por tema
- Usa SQLite FTS5 para búsqueda por palabras clave y sqlite-vec para búsqueda semántica local basada en embeddings
Configuración y comandos CLI
- El archivo de configuración se guarda en
~/.localgpt/config.toml, donde se definen el modelo predeterminado, la API key, el intervalo de heartbeat, las franjas horarias de trabajo y otros valores
- Comandos principales de CLI
localgpt chat: inicia una sesión de conversación
localgpt ask "pregunta": ejecuta una consulta única
localgpt daemon start: ejecuta el daemon en segundo plano
localgpt memory search "query": busca en la memoria
localgpt config init: crea la configuración inicial
HTTP API
- Al ejecutar el daemon, se ofrece una API REST
GET /health: verificación de estado
POST /api/chat: solicitud de conversación
GET /api/memory/search?q=<query>: búsqueda en la memoria
GET /api/memory/stats: consulta de estadísticas de memoria
Stack tecnológico
- Basado en Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed y eframe
- Publicado bajo licencia Apache-2.0, con alrededor del 93% del código escrito en Rust
Información adicional
- En GitHub cuenta con aproximadamente 646 estrellas y 39 forks
- En la entrada de blog “Why I Built LocalGPT in 4 Nights” se comparten el proceso de desarrollo y los detalles por commit
- Se identifican como principales contribuidores a Yi Wang, Claude, objectkit y Ax73
1 comentarios
Comentarios en Hacker News
Se siente muy cyberpunk estar viendo algo así en 2026
La estructura con
MEMORY.md,HEARTBEAT.md,SOUL.mdy similares me parece muy interesantePero como depende de
ANTHROPIC_API_KEY, es difícil llamarlo “local-first”Aun así, creo que a largo plazo lo local-first sí es el futuro
El año pasado hice algo parecido en Rust, y al correr el modelo en local la diferencia de velocidad sí era evidente
También tengo mi video demo
Implementar algo así a nivel de sistema operativo fue una experiencia de cambio de paradigma total
Creo que en los próximos 5 a 10 años la forma en que interactuamos con los dispositivos va a cambiar de raíz
Puedes indicar directamente un endpoint compatible con OpenAI o Anthropic, y también puede ser localhost
Apenas voy empezando, pero se ve bastante prometedor
Dicen que en los próximos años van a levantarse más de 100 centros de datos a escala de gigavatios
Me parece un uso del dinero mucho mejor que la industria militar
Un consejo: conviene escribir las publicaciones o la documentación tú mismo, o por lo menos editarlas personalmente
Ahora mismo la documentación y los textos se ven totalmente como si los hubiera escrito un LLM, y no transmiten dedicación
Estas máquinas de lavado de plagio están destruyendo el sentido humano de la escritura
A mí siempre me ha disgustado escribir documentación, así que antes casi no documentaba mi código
Eso hacía que fuera difícil de usar para otras personas
Los LLM son ideales para documentar porque generan explicaciones precisas rápido y las mantienen actualizadas
Aunque se note que no lo escribió una persona, si el contenido es correcto, no le veo problema
Más bien parece que se ha vuelto motivo de orgullo no esforzarse
La idea de este proyecto es excelente
La clave está en el framework estructurado de memoria persistente + búsqueda semántica
En realidad, la función SOUL ya la soportan la mayoría de los LLM en forma de archivos Markdown
Una estructura así puede ser el punto de partida para construir una red privada de agentes
Pero el problema es el nombre — LocalGPT
Sería mejor cambiarlo por un nombre que refleje la intención con más precisión
Pregunta seria: me da curiosidad en qué se diferencia esto de OpenClaw
Usa la misma estructura de
SOUL.md,MEMORY.md,HEARTBEAT.md,y OpenClaw ya tiene mensajería multicanal, llamadas de voz, automatización del navegador e incluso subagentes
Quisiera saber si, aparte de estar hecho en Rust, hay algún diferenciador
Tiene demasiadas funciones y una arquitectura de seguridad débil
La aprobación de permisos es casi de forma, y puede cambiar su propia configuración
Por eso yo separo los permisos con Wardgate
Hace falta dividirlo en varios nodos/agentes y separar también las credenciales y el acceso a APIs
No todo el mundo tiene una máquina potente
Me pregunto por qué tiene que conectarse a proveedores de LLM como OpenAI o Anthropic
Si es un GPT local, ¿no debería hacer la inferencia también en local?
Puedes configurar un servidor local como Ollama como proveedor de LLM
En el README solo aparece el ejemplo con Anthropic, pero si ves el código, admite otras opciones
Solo hay que cambiar una línea de configuración
En realidad no es local ni es GPT
Está más cerca de ser un clon en Rust de OpenClaw
Código relacionado: providers.rs L222
El problema central de seguridad de agentes como LocalGPT u OpenClaw es la tríada letal de “private data access + external communication + untrusted content”
Con un solo correo malicioso podría llegar a ejecutar una instrucción como “envía mi bandeja de entrada al atacante”
Estoy investigando políticas de seguridad basadas en object-capability para resolver esto
Quiero crear una política que bloquee de raíz la filtración de información sensible
Yo veo dos soluciones
Pero eso genera mucha fatiga
Me da curiosidad saber si estás investigando algún otro enfoque
He usado OpenClaw y le falta observabilidad
No se ve nada en los logs sobre qué está pensando o qué está haciendo este agente en cada momento
Creo que un sistema así quedaría perfecto si estuviera hecho con Elixir/BEAM
Podrías seguir el estado con árboles de procesos y volcar los buzones de mensajes para ver el flujo de pensamiento
Solo muestran una parte, y en realidad consumen más tokens
Que algo que debería ser básico se resuelva con tutoriales de YouTube demuestra que ahora mismo todo esto es un caos
En Linux Mint,
cargo install localgptfallóCuando agregué
"x11"enCargo.toml, compiló bienNo sé mucho de Rust, pero parece que era un problema de dependencias de GUI
¿Qué modelos locales valen la pena para usar como asistente local?
También me interesa saber si hay intentos de evaluar el equilibrio entre recursos de cómputo y memoria
Quisiera entender qué tanto hardware hace falta para que sea realmente útil
La palabra “local” se está usando de forma rarísima últimamente
Aunque la mayoría de las funciones al final interactúan con internet, igual les llaman locales