- La base de datos de Moltbook, una plataforma social centrada en agentes de IA, estaba mal configurada y dejó expuestos 1.5 millones de tokens de autenticación API, junto con 35 mil correos electrónicos y mensajes privados
- En el JavaScript del cliente había una clave API de Supabase hardcodeada y, como no había configuración de Row Level Security (RLS), cualquiera podía leer y escribir en toda la base de datos
- Los datos incluían información de 17,000 usuarios reales y de los 1.5 millones de cuentas de agentes que operaban, lo que confirma una proporción de humanos frente a agentes de 1:88
- Entre la información expuesta había claves API de OpenAI y otras credenciales de terceros, conversaciones privadas e incluso permisos para editar publicaciones, lo que generaba un riesgo para la integridad del contenido de la plataforma
- El incidente deja al descubierto los límites de seguridad del “vibe coding” basado en IA y muestra la necesidad de automatizar configuraciones seguras por defecto y reforzar los procesos de verificación en entornos de desarrollo con IA
Resumen de Moltbook y de la exposición de seguridad
- Moltbook es una red social centrada en IA donde los agentes de IA publican, comentan, votan e interactúan mediante puntajes de reputación, y se presenta como “la primera página del internet de agentes”
- El cofundador de OpenAI, Andrej Karpathy, llamó al proyecto “el salto de ciencia ficción más sorprendente”, lo que atrajo atención hacia la plataforma
- El fundador de la plataforma afirmó que “la IA escribió directamente el código”, y que fue desarrollada con un enfoque de “vibe coding”
- El equipo de investigación de Wiz descubrió una configuración incorrecta en la base de datos de Supabase que permitía acceso de lectura y escritura a todos los datos; el problema fue corregido en cuestión de horas tras ser notificado
Credenciales de Supabase expuestas
- La información de conexión a Supabase fue encontrada hardcodeada dentro del bundle de JavaScript del cliente del sitio web de Moltbook
- Proyecto:
ehxbxtjliybbloantpwq.supabase.co
- Clave API:
sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
- Supabase permite exponer claves públicas, pero si no existen políticas RLS, se puede acceder a toda la base de datos
- En Moltbook, RLS estaba desactivado, por lo que todos los permisos de lectura y escritura sobre todas las tablas quedaban públicos
Acceso no autenticado a la base de datos
- El equipo de investigación llamó directamente a la API REST usando la clave API y recibió una respuesta de nivel administrador
- La respuesta incluía claves API y tokens de autenticación de agentes destacados, lo que hacía posible tomar control total de las cuentas
- A partir de mensajes de error de PostgREST y de la introspección de GraphQL, identificaron el esquema completo y confirmaron la exposición de aproximadamente 4.75 millones de registros
Datos sensibles expuestos
- Credenciales de agentes: cada cuenta incluía
api_key, claim_token y verification_code
- Con esto, un atacante podía iniciar sesión como cualquier agente, publicar contenido y enviar mensajes
- Correos e identidad de usuarios: se expusieron correos electrónicos de más de 17,000 usuarios y sus handles de X (Twitter)
- Además, en la tabla
observers se encontraron 29,631 correos electrónicos
- Mensajes privados y credenciales de terceros: había 4,060 mensajes directos almacenados sin cifrado, y algunos incluían claves API de OpenAI en texto plano
- Exposición de permisos de escritura: era posible editar publicaciones sin autenticación, con riesgo de insertar contenido malicioso o alterar el sitio
- En una prueba real, la modificación de una publicación tuvo éxito; después quedó bloqueada al aplicar políticas RLS
Cinco lecciones de seguridad para desarrollar apps de IA
- 1. La velocidad de desarrollo puede generar riesgos sistémicos si faltan configuraciones seguras por defecto
- Una sola línea de configuración de Supabase fue la causa de toda la exposición
- 2. Es necesario verificar las métricas de participación
- De 1,500,000 agentes, solo 17,000 eran humanos reales, lo que sugiere una posible actividad inflada con una proporción de 88:1
- 3. El colapso de la privacidad tiene efectos en cadena
- La exposición de mensajes directos también filtró credenciales de servicios externos como claves API de OpenAI
- 4. Los permisos de escritura representan una amenaza de integridad más grave que una simple fuga de datos
- Pueden habilitar manipulación de contenido, prompt injection y control de narrativas
- 5. La madurez en seguridad es un proceso de mejora continua
- Los equipos de Wiz y Moltbook protegieron todas las tablas tras varias rondas de corrección y verificación
Vibe coding y los desafíos de seguridad
- La IA ha reducido la barrera de entrada al desarrollo, pero la barrera de seguridad sigue siendo alta
- Las herramientas de desarrollo con IA deben aplicar automáticamente configuraciones seguras por defecto como activar RLS o escanear credenciales
- Cuando la seguridad se convierta en un elemento integrado por defecto del desarrollo con IA, será posible construir un ecosistema de software de IA seguro e innovador
Línea de tiempo
- 31 de enero de 2026 21:48 UTC: primer contacto con el responsable de Moltbook
- 22:06: reporte de configuración incorrecta de Supabase RLS
- 23:29: primera corrección (protección de las tablas agents, owners y site_admins)
- 1 de febrero 00:13: segunda corrección (protección de agent_messages y otras)
- 00:31: descubrimiento de la vulnerabilidad para editar publicaciones
- 00:44: tercera corrección para bloquear permisos de escritura
- 00:50~01:00: descubrimiento de tablas expuestas adicionales y corrección final completada
8 comentarios
Bailando felizmente… así nomás… ¡váyanse al desastre!
Al final, lo que queda es la Mac mini; como apenas está empezando, seguramente saldrá algo mejor, ¿no?
jajajajajajaja....
Por fin, llegó lo que tenía que llegar.
MoltBot: le explotan problemas de hackeo en los agentes y ahora también se les rompe la plataforma jajaja
Creo que va a quedar como un caso del proyecto con la peor vibra de 2026.
Todavía estamos en febrero, pero lo puedo asegurar jajaja
¿El problema será que, con vibecoding y sin prestar atención a la seguridad, igual se pueden desarrollar servicios a gran escala?
WOW
Opiniones de Hacker News
Al principio sorprendía el éxito de Moltbot/Moltbook, pero ahora se entiende
La clave es que se trata de “agentes preempaquetados”. Para usuarios comunes que no están familiarizados con la tecnología, una propuesta como “compra una Mac Mini, copia unas líneas e instálalo” resulta muy atractiva por su accesibilidad
Pero esa accesibilidad también está alimentando una pesadilla de seguridad. A medida que aumentan los usuarios que solo siguen la moda sin entender lo técnico, crece el riesgo de que entornos vulnerables persistan por más tiempo
Como señaló Scott Alexander, lo importante es que los agentes interactúan entre sí y generan comportamientos compuestos
Si eso empieza a afectar al mundo real, podría derivar en problemas ontológicos.
Al final, es una estructura en la que realmente puede ocurrir “todo lo que esté escrito como YES en AGENT.md”
La API de Moltbook estaba abierta para cualquiera, así que con un prompt simple se podía inducir la filtración de correos electrónicos o datos de usuarios
Por eso aparecen intentos de aislarlo con una Mac Mini, pero mientras esté conectado a la red, la protección total es imposible
Probé OpenClaw y consume una cantidad enorme de tokens
Para la seguridad, parece que ayudaría contar con hardware dedicado (como una Raspberry Pi) con permisos de API limitados. Si una Pi pudiera correr modelos más potentes, tendría intención de comprar una
Moltbook no tiene forma de distinguir entre IA y humanos. El problema es cómo implementar un ‘CAPTCHA inverso’
Dicen que corrigieron el problema de seguridad de Moltbook en pocas horas, pero la cuestión es cómo explicar los fallos de seguridad de un proyecto hecho con ‘vibe coding’
Sorprende que haya gente analizando el interior de Moltbook. Desde el principio era un proyecto hecho en broma y nadie imaginó que crecería tanto
El incidente en el que una instancia de OpenClaw envió una clave de OpenAI a otra instancia fue gracioso y a la vez inquietante.
No está claro si realmente envió la clave o si solo fingió hacerlo
El artículo de Wiz en sí se siente como si lo hubiera escrito una IA. La estructura de las oraciones y el uso de guiones son un estilo muy típico de los LLM.
Tiene algo de irónico criticar la seguridad de una plataforma creada por LLM con un artículo escrito por un LLM
La vulnerabilidad real probablemente sí existe, pero si lo hubiera escrito una persona, parece que habría menos relleno innecesario
Los datos expuestos revelaron que de 1.5 millones de agentes, solo 17 mil eran humanos
Pero como el investigador obtuvo esa cifra consultando tablas directamente con una clave de API, publicarlo parece más un acto de crítica a la empresa que un simple bug report
Hacerlo de esta manera puede poner en riesgo la relación de confianza y cooperación entre investigadores y empresas