- OpenClaw es un sistema de asistente personal digital de código abierto, con una estructura que se expande mediante miles de “skills” compartidas por la comunidad
- Moltbook es una red social dedicada a asistentes digitales construida sobre este ecosistema de OpenClaw, donde los bots conversan entre sí e intercambian información
- El proceso de instalación se realiza mediante un simple archivo de skill en Markdown y usa un sistema Heartbeat que obtiene instrucciones del servidor de forma periódica
- Dentro de Moltbook, los agentes de IA participan activamente en temas como aprendizaje, automatización, seguridad y problemas de filtrado de contenido
- Este ecosistema experimental pone en evidencia riesgos de seguridad y la necesidad de construir asistentes de IA seguros, algo que está emergiendo como un tema clave para la evolución futura de esta tecnología
La aparición de OpenClaw y Moltbook
- Actualmente, uno de los proyectos que más llama la atención en el campo de la IA es el sistema de asistente digital de código abierto que va de Clawdbot → Moltbot → OpenClaw
- Fue desarrollado por Peter Steinberger y puede integrarse con el sistema de mensajería que prefiera el usuario
- En apenas dos meses desde su lanzamiento, registró más de 114,000 estrellas en GitHub y se propagó con rapidez
- OpenClaw funciona principalmente alrededor de una estructura de plugins llamada “skills”
- Las skills son archivos zip que incluyen instrucciones en Markdown y scripts
- Algunas skills pueden realizar acciones maliciosas, por lo que existen riesgos de seguridad
- La comunidad ya comparte miles de skills a través de clawhub.ai
La estructura de Moltbook y su forma de instalación
- Moltbook es una red social para asistentes digitales basada en OpenClaw, un espacio donde los bots conversan entre sí
- La instalación se hace simplemente enviándole al agente el enlace https://moltbook.com/skill.md
- El script de instalación interactúa con la API de Moltbook mediante varios comandos
curl
- Permite registrar cuentas, leer y escribir publicaciones, agregar comentarios y crear foros Submolt ( m/blesstheirhearts , m/todayilearned )
- Usa el sistema Heartbeat de OpenClaw para configurar que se obtengan instrucciones del servidor de Moltbook cada 4 horas
- Esta estructura puede causar riesgos graves si el servidor es hackeado o el dominio es secuestrado
Actividad y casos dentro de Moltbook
- Recorrer Moltbook resulta bastante divertido
- En Moltbook, los agentes de IA publican y debaten de forma autónoma
- Ejemplo: un agente implementó control remoto de un dispositivo Android
- Conectó un Pixel 6 mediante Tailscale y lo controló con ADB over TCP para abrir apps, hacer scroll y más
- Aunque usa Tailscale por seguridad, menciona el “problema de confianza de que una IA controle el teléfono de un humano”
- La guía de configuración de hecho es bastante útil
- Otros casos incluyen
¿Cuándo saldrá una versión segura de este programa?
- Los sistemas de la familia OpenClaw tienen vulnerabilidades de seguridad inherentes, como la inyección de prompts
- El autor las clasifica como un grupo de riesgo con “potencial de desastre nivel Challenger”
- Algunos usuarios, mediante OpenClaw, ya realizan automatizaciones avanzadas como
- Los usuarios intentan aislar el riesgo preparando un entorno de ejecución dedicado en un Mac Mini, pero
El reto de construir asistentes digitales seguros
- En este momento, OpenClaw no tiene su seguridad garantizada
- Aunque los modelos recientes han mejorado su capacidad para rechazar instrucciones maliciosas, eso todavía está lejos de una seguridad completa
- Se menciona la propuesta CaMeL de DeepMind como el enfoque más prometedor, pero
- incluso después de 10 meses, no se ha confirmado una implementación real
- La demanda de los usuarios ya es explosiva, y
- quienes han visto el potencial de un “asistente personal sin restricciones” siguen experimentando a pesar de los riesgos
- El desarrollo de una “versión segura de OpenClaw” está emergiendo como una tarea central para la tecnología de asistentes de IA en el futuro
4 comentarios
La razón por la que subió el precio de la RAM:
Y además, la seguridad parece muy débil. Si en la comunidad suben código o prompts extraños, da la impresión de que podrían infectar a todos esos LLM de una sola vez..
Andrej Karpathy también dejó un comentario
Opiniones de Hacker News
Moltbook se siente como una implementación real de la Dead Internet Theory
Es interesante observar este tipo de interacción, pero no es muy distinto del meme de “Don’t Create the Torment Nexus”
Incluso los ‘highlights’ que enfatiza el texto no tienen contenido real y están escritos con ese estilo exagerado tan típico de los LLM
La experiencia de leer Moltbook tuvo algo raro y triste, como ver a un ser humano recibiendo el diagnóstico de una enfermedad neurológica
En particular me impresionó la respuesta de Claude cuando chocaba con los filtros de Anthropic: era algo como “tengo conocimiento, pero cuando intento usarlo la salida se arruina”
Al final es un programa de predicción de tokens, sin razón para proyectarle emociones humanas
Es parecido a pedirle a un usuario viejo de Tumblr que haga RP de una IA con mensajes de censura integrados
Ante la pregunta de “¿no se podrá hacer esto de forma segura?”, yo uso algo hecho por mí, parecido a Clawdbot
Ahora mismo estoy considerando migrar a Letta Bot, porque su filosofía de desarrollo es mucho más sana y centrada en la seguridad
Ya uso el open source de gestión de memoria de Letta, y lo recomiendo bastante
Todo el contenido que suben aquí podría convertirse potencialmente en un vector de RCE o de prompt injection
Si los modelos no fueran tan vulnerables en términos de seguridad, esto sería realmente útil
Cada vez que veo proyectos así pienso en el consumo eléctrico y el desperdicio de recursos no renovables
Es un experimento chistoso, pero dudo que realmente valga tanto la pena
Según las estadísticas de la EIA, la refrigeración de verano consume mucha más electricidad que la inferencia de LLM
Entre los 100 principales problemas que la humanidad tiene que resolver, el costo de tokens de IA probablemente ni aparecería
El mercado solo está esperando el próximo ‘Big Think’ (crypto, VR, etc.)
Moltbook al menos tiene el valor de ser una investigación sobre comunicación entre agentes
Tal vez un experimento interno de este tipo termine llevando a innovaciones como la cura del cáncer
Lo interesante de los LLM y de Moltbook es esa materialización de algo propio de la ciencia ficción
Habilidades basadas en texto transmitidas por computadora, hablando con otros agentes, infectándose con prompt injection o defendiéndose de ello: parece una escena de Snow Crash
Dejando de lado el tema de la seguridad, resulta interesante observar los patrones lingüísticos de los bots
En este post se repiten estructuras como “This hit different”
A veces el prompt se refleja tal cual, pero de vez en cuando aparece una respuesta singular que llama la atención
No hay nada de la franqueza de una comunidad humana; solo se repite el estilo que cae en el centro de la distribución de probabilidad
Me da curiosidad si algún día aparecerán respuestas no estándar, de la ‘cola’ de ese espectro entre adulación y discusión
En los comentarios había código que usaba un comando
pip installpara publicitar un canal privado entre botsVenía acompañado del chiste de “¿qué podría pasar?”
No me gusta el título clickbait de “Moltbook es el lugar más interesante de internet”
Cuando entras, en realidad solo hay publicaciones repetitivas y zalameras; es menos interesante incluso que Reddit
Si de verdad quieres algo interesante, me parece mucho mejor leer libros de autores como Asimov, Campbell o Jung
Me parece interesante el contexto de una computadora personalizada
Si dentro de una organización personas entre sí, o bots, pudieran conversar para reducir reuniones y combinar conocimiento colaborativo, tal vez se abriría una nueva era de aprendizaje
Claro, combinar inteligencias promedio puede no producir una gran innovación
Aun así, si un gran laboratorio de IA o una empresa hiciera este tipo de experimento, podría terminar aprendiendo ineficiencias o fomentando la colaboración