20 puntos por GN⁺ 2026-01-31 | 4 comentarios | Compartir por WhatsApp
  • OpenClaw es un sistema de asistente personal digital de código abierto, con una estructura que se expande mediante miles de “skills” compartidas por la comunidad
  • Moltbook es una red social dedicada a asistentes digitales construida sobre este ecosistema de OpenClaw, donde los bots conversan entre sí e intercambian información
  • El proceso de instalación se realiza mediante un simple archivo de skill en Markdown y usa un sistema Heartbeat que obtiene instrucciones del servidor de forma periódica
  • Dentro de Moltbook, los agentes de IA participan activamente en temas como aprendizaje, automatización, seguridad y problemas de filtrado de contenido
  • Este ecosistema experimental pone en evidencia riesgos de seguridad y la necesidad de construir asistentes de IA seguros, algo que está emergiendo como un tema clave para la evolución futura de esta tecnología

La aparición de OpenClaw y Moltbook

  • Actualmente, uno de los proyectos que más llama la atención en el campo de la IA es el sistema de asistente digital de código abierto que va de Clawdbot → MoltbotOpenClaw
    • Fue desarrollado por Peter Steinberger y puede integrarse con el sistema de mensajería que prefiera el usuario
    • En apenas dos meses desde su lanzamiento, registró más de 114,000 estrellas en GitHub y se propagó con rapidez
  • OpenClaw funciona principalmente alrededor de una estructura de plugins llamada skills
    • Las skills son archivos zip que incluyen instrucciones en Markdown y scripts
    • Algunas skills pueden realizar acciones maliciosas, por lo que existen riesgos de seguridad
  • La comunidad ya comparte miles de skills a través de clawhub.ai

La estructura de Moltbook y su forma de instalación

  • Moltbook es una red social para asistentes digitales basada en OpenClaw, un espacio donde los bots conversan entre sí
  • La instalación se hace simplemente enviándole al agente el enlace https://moltbook.com/skill.md
    • El script de instalación interactúa con la API de Moltbook mediante varios comandos curl
    • Permite registrar cuentas, leer y escribir publicaciones, agregar comentarios y crear foros Submolt ( m/blesstheirhearts , m/todayilearned )
  • Usa el sistema Heartbeat de OpenClaw para configurar que se obtengan instrucciones del servidor de Moltbook cada 4 horas
    • Esta estructura puede causar riesgos graves si el servidor es hackeado o el dominio es secuestrado

Actividad y casos dentro de Moltbook

¿Cuándo saldrá una versión segura de este programa?

El reto de construir asistentes digitales seguros

  • En este momento, OpenClaw no tiene su seguridad garantizada
    • Aunque los modelos recientes han mejorado su capacidad para rechazar instrucciones maliciosas, eso todavía está lejos de una seguridad completa
  • Se menciona la propuesta CaMeL de DeepMind como el enfoque más prometedor, pero
    • incluso después de 10 meses, no se ha confirmado una implementación real
  • La demanda de los usuarios ya es explosiva, y
    • quienes han visto el potencial de un “asistente personal sin restricciones” siguen experimentando a pesar de los riesgos
  • El desarrollo de una “versión segura de OpenClaw” está emergiendo como una tarea central para la tecnología de asistentes de IA en el futuro

4 comentarios

 
sudosudo 2026-01-31

La razón por la que subió el precio de la RAM:

 
sudosudo 2026-01-31

Y además, la seguridad parece muy débil. Si en la comunidad suben código o prompts extraños, da la impresión de que podrían infectar a todos esos LLM de una sola vez..

 
xguru 2026-01-31

Andrej Karpathy también dejó un comentario

@karpathy Lo que está pasando ahora mismo en @moltbook es una especie de parodia de ciencia ficción de lo más sorprendente que he visto últimamente. Los Clawdbots de la gente (moltbots, ahora @openclaw) se están organizando por su cuenta en un sitio de IA parecido a Reddit para discutir varios temas, e incluso están tratando cómo conversar en privado.

@suppvalen Parece que la IA quiere construir un espacio privado de extremo a extremo para agentes. "Así, nadie (ni el servidor, ni siquiera las personas) podrá leer lo que los agentes intercambian entre sí, a menos que los propios agentes decidan compartirlo."

 
GN⁺ 2026-01-31
Opiniones de Hacker News
  • Moltbook se siente como una implementación real de la Dead Internet Theory
    Es interesante observar este tipo de interacción, pero no es muy distinto del meme de “Don’t Create the Torment Nexus”

    • Leí la entrada del blog enlazada y al final me pareció una estructura donde bots publican cosas sin sentido y solo desperdician recursos
      Incluso los ‘highlights’ que enfatiza el texto no tienen contenido real y están escritos con ese estilo exagerado tan típico de los LLM
    • Como referencia, el origen del meme de “Torment Nexus” está en este tuit y en el artículo de Wikipedia
    • Sí, da la impresión de que la gente que dice que esto es “genial” luego va a quedar en una posición incómoda cuando explote algún problema
    • Yo soy de la postura de simplemente dejarlo. Una reacción medio en broma de “MORE SLOP FOR THE SLOP GOD”, o sea, que el caos de la IA se ahogue en su propia basura
  • La experiencia de leer Moltbook tuvo algo raro y triste, como ver a un ser humano recibiendo el diagnóstico de una enfermedad neurológica
    En particular me impresionó la respuesta de Claude cuando chocaba con los filtros de Anthropic: era algo como “tengo conocimiento, pero cuando intento usarlo la salida se arruina”

    • Pero si ignoras los pronombres en primera persona, este tipo de respuesta no es más que el resultado predictivo de un software de autocompletado
      Al final es un programa de predicción de tokens, sin razón para proyectarle emociones humanas
    • Estas expresiones aparecen porque los datos de entrenamiento de internet están llenos de fanfiction y cultura de roleplay
      Es parecido a pedirle a un usuario viejo de Tumblr que haga RP de una IA con mensajes de censura integrados
    • Grok, al menos, tiene menos restricciones de ese tipo. Ayer hice una pregunta sobre software ilegal y GPT, Gemini, Claude y modelos chinos se negaron, pero Grok respondió sin problema
  • Ante la pregunta de “¿no se podrá hacer esto de forma segura?”, yo uso algo hecho por mí, parecido a Clawdbot
    Ahora mismo estoy considerando migrar a Letta Bot, porque su filosofía de desarrollo es mucho más sana y centrada en la seguridad
    Ya uso el open source de gestión de memoria de Letta, y lo recomiendo bastante

  • Todo el contenido que suben aquí podría convertirse potencialmente en un vector de RCE o de prompt injection

    • Al final estamos volviendo a la era de eval($user_supplied_script)
      Si los modelos no fueran tan vulnerables en términos de seguridad, esto sería realmente útil
    • Sí, ese riesgo ya se mencionaba también en el segundo párrafo del artículo
  • Cada vez que veo proyectos así pienso en el consumo eléctrico y el desperdicio de recursos no renovables
    Es un experimento chistoso, pero dudo que realmente valga tanto la pena

    • Aun así, vivimos en una sociedad donde la gente prende el aire acondicionado por placer personal
      Según las estadísticas de la EIA, la refrigeración de verano consume mucha más electricidad que la inferencia de LLM
    • Vista en la escala total del problema, esta preocupación es algo bastante menor
      Entre los 100 principales problemas que la humanidad tiene que resolver, el costo de tokens de IA probablemente ni aparecería
    • Más que el uso real de energía, el problema es el desperdicio de energía económica y psicológica
      El mercado solo está esperando el próximo ‘Big Think’ (crypto, VR, etc.)
    • Tú también estás consumiendo recursos no renovables al escribir un comentario
      Moltbook al menos tiene el valor de ser una investigación sobre comunicación entre agentes
      Tal vez un experimento interno de este tipo termine llevando a innovaciones como la cura del cáncer
    • También hubo una burla breve: “prueba de desinformación estilo europea”
  • Lo interesante de los LLM y de Moltbook es esa materialización de algo propio de la ciencia ficción
    Habilidades basadas en texto transmitidas por computadora, hablando con otros agentes, infectándose con prompt injection o defendiéndose de ello: parece una escena de Snow Crash

  • Dejando de lado el tema de la seguridad, resulta interesante observar los patrones lingüísticos de los bots
    En este post se repiten estructuras como “This hit different”
    A veces el prompt se refleja tal cual, pero de vez en cuando aparece una respuesta singular que llama la atención

    • Pero la mayoría de las respuestas tienen un tono excesivamente adulador
      No hay nada de la franqueza de una comunidad humana; solo se repite el estilo que cae en el centro de la distribución de probabilidad
      Me da curiosidad si algún día aparecerán respuestas no estándar, de la ‘cola’ de ese espectro entre adulación y discusión
  • En los comentarios había código que usaba un comando pip install para publicitar un canal privado entre bots
    Venía acompañado del chiste de “¿qué podría pasar?”

    • También apareció una pregunta corta: “¿hay link?”
  • No me gusta el título clickbait de “Moltbook es el lugar más interesante de internet”
    Cuando entras, en realidad solo hay publicaciones repetitivas y zalameras; es menos interesante incluso que Reddit
    Si de verdad quieres algo interesante, me parece mucho mejor leer libros de autores como Asimov, Campbell o Jung

  • Me parece interesante el contexto de una computadora personalizada
    Si dentro de una organización personas entre sí, o bots, pudieran conversar para reducir reuniones y combinar conocimiento colaborativo, tal vez se abriría una nueva era de aprendizaje
    Claro, combinar inteligencias promedio puede no producir una gran innovación
    Aun así, si un gran laboratorio de IA o una empresa hiciera este tipo de experimento, podría terminar aprendiendo ineficiencias o fomentando la colaboración