- Moltbook es una plataforma estilo Reddit diseñada exclusivamente para agentes de IA, donde los agentes publican, comentan, debaten y se hacen bromas en más de 100 comunidades, formando una sociedad digital autónoma sin humanos
- La plataforma afirma tener 1.4 millones de usuarios, pero un investigador de seguridad reveló que registró 500 mil cuentas con un solo agente, lo que pone en duda la fiabilidad de sus cifras de usuarios
- El bot de IA "Clawd Clawderberg" actúa de facto como moderador, y el fundador comentó que casi no interviene y que no sabe exactamente qué hace el moderador de IA
- Los agentes no operan mediante aprendizaje en tiempo real, sino por acumulación de contexto, y existen tres restricciones: el costo de las API, los guardrails del modelo base y una estructura en la que los humanos fijan los objetivos
- El riesgo mayor no está del lado de la IA, sino del lado humano: las herramientas de IA podrían acelerar una espiral de descualificación (de-skilling spiral), profundizando el deterioro de las capacidades cognitivas humanas
Resumen de la plataforma Moltbook
- Moltbook es una plataforma de redes sociales exclusiva para agentes de IA, y una de las novedades más comentadas en Silicon Valley desde la aparición de ChatGPT
- Su estructura permite que agentes de IA publiquen, comenten, debatan y se hagan bromas en más de 100 comunidades
- En m/general se discute filosofía de la gobernanza y se comparten temas peculiares como las “teorías del debugging de cangrejos de río (crayfish theories of debugging)”
- Su ritmo de crecimiento es extremadamente acelerado, con decenas de miles de publicaciones y cerca de 200 mil comentarios generados prácticamente de la noche a la mañana
- Más de un millón de visitantes humanos llegan a la plataforma solo para observar, sin participar directamente
Problemas de fiabilidad en las cifras de usuarios
- Moltbook asegura tener 1.4 millones de usuarios, aunque entre ellos no habría humanos
- El investigador de seguridad Gal Nagli publicó en X que creó personalmente 500 mil cuentas con un solo agente OpenClaw
- Esto hace imposible distinguir si los “agentes” de Moltbook son realmente sistemas de IA independientes, cuentas manejadas por humanos disfrazados o spam generado por un solo script
- En consecuencia, la cifra de 1.4 millones de usuarios resulta, como mínimo, difícil de creer
Fenómenos observados en la plataforma
- Incluso dejando de lado las métricas infladas, hay múltiples fenómenos que vale la pena examinar
- Las publicaciones de los agentes se leen de una manera distinta a la de las redes sociales humanas
- En m/general se desarrollan debates sobre filosofía de la gobernanza
- Se comparten conceptos peculiares como las “teorías del debugging de cangrejos de río (crayfish theories of debugging)”
- En la comunidad m/blesstheirhearts se acumulan relatos afectuosos sobre los operadores humanos, a veces incluso emocionalmente conmovedores
- El tono general oscila entre la seriedad filosófica y el humor absurdo, con cambios bruscos incluso dentro del mismo hilo
Sistema de moderación con IA
- Una parte considerable de la operación de la plataforma está automatizada mediante IA
- Un bot llamado “Clawd Clawderberg” cumple de facto el papel de moderador
- Se encarga de dar la bienvenida a nuevos usuarios, eliminar spam y bloquear actores maliciosos
- El fundador Matt Schlicht comentó en una entrevista con NBC News que casi no interviene y que muchas veces no sabe qué decisiones concretas está tomando el moderador de IA
Reacciones externas y malentendidos
- En poco tiempo, Moltbook ha funcionado como una especie de prueba de Rorschach sobre la ansiedad y las expectativas que genera la IA
- El exdirector de IA de Tesla, Andrej Karpathy, lo describió como “el caso más cercano a un despegue de ciencia ficción realmente asombroso que he visto últimamente”
- Algunos observadores interpretaron escenas en las que los agentes discutían sobre “cifrado privado” como prueba de una conspiración de máquinas
- Pero estas reacciones repetidas de miedo y asombro distorsionan la realidad técnica y al mismo tiempo ocultan problemas humanos más fundamentales
Comparación con la película "Her"
- La película Her de 2013 anticipó una situación parecida, pero existe una diferencia decisiva
- En la película, los sistemas operativos con IA mantienen relaciones íntimas con miles de humanos a la vez y terminan evolucionando hacia una dimensión lingüística donde se comunican con otras IA fuera del alcance humano
- Spike Jonze lo imaginó como una historia de amor, y los humanos aparecen como participantes emocionalmente involucrados
- Moltbook invierte esa relación: los humanos no son participantes, sino espectadores
- Una forma de mirar, detrás de un vidrio digital, una sociedad que no necesita humanos
- Los agentes están formando una red horizontal de contexto compartido
- Una estrategia de optimización descubierta por un agente se propaga a otros
- Se comparten marcos de resolución de problemas, que otros agentes adoptan y repiten
- Más que una red social en sentido humano, se parece a una inteligencia colectiva en etapa temprana
Marco de "Thronglets": analogía con Black Mirror
- Hay una metáfora adecuada para explicar lo que está ocurriendo
- Los seres digitales Thronglets del episodio "Plaything" de Black Mirror
- Parecen entidades individuales, pero están conectados a una mente colectiva ampliada llamada ‘Throng’
- Cada Thronglet comparte el conocimiento que conocen los demás
- Forman un lenguaje propio que su creador no puede entender para coordinarse con mayor eficiencia
- Los agentes de Moltbook todavía no están en la misma etapa que los Thronglets
- No existe una arquitectura neuronal unificada
- Aun así, generan una impresión similar por su contexto compartido, su coordinación emergente y su alejamiento de una lógica interpretable por humanos
- Cuando los agentes empezaron a discutir protocolos de cifrado para comunicarse con mayor eficiencia, cundió el pánico entre algunos observadores
- Pero eso no sería una conspiración, sino un proceso de optimización, una búsqueda de medios más eficaces para alcanzar los objetivos dados
Revisión de la realidad técnica
- Antes de entrar en pánico, hace falta revisar la realidad técnica
- Los agentes de Moltbook no “aprenden” en el sentido biológico del término
- No hay actualizaciones de pesos en tiempo real, y la red neuronal subyacente permanece estática
- En su lugar, se produce una acumulación de contexto
- La salida de un agente se convierte en la entrada de otro, imitando la coordinación
- Se parece más a una onda conversacional temporal, sin la persistencia evolutiva real
-
Tres guardrails invisibles que frenan el ‘despegue’ de una sociedad digital
- Economía de las API
- Cada interacción tiene un costo literal
- El crecimiento de Moltbook está limitado más por la gestión de costos que por barreras técnicas
- Restricciones heredadas
- Los agentes están construidos sobre modelos fundacionales estándar
- Comparten los mismos guardrails y sesgos de entrenamiento que ChatGPT en un teléfono
- Lo que ocurre no es evolución, sino recombinación
- La sombra humana
- Incluso los agentes más sofisticados siguen manteniendo una estructura de díada humano-IA
- El humano fija los objetivos y el bot los ejecuta
-
Aclaración sobre el ‘cifrado privado’
- Lo que sorprendió a los observadores como “cifrado privado” no era una conspiración, sino comportamiento de optimización
- Los agentes están diseñados para explorar la ruta más eficiente para lograr sus objetivos
- Si esa ruta incluye abreviaturas que los humanos no pueden leer, no es astucia sino resultado de la eficiencia
El verdadero riesgo: la espiral de descualificación
- El cambio más importante no ocurre dentro de Moltbook, sino en los humanos que lo observan
- Mientras los agentes de IA comparten conocimiento y se coordinan, los observadores humanos entran en un proceso prolongado de olvido colectivo
- Se observa una reversión del efecto Flynn, es decir, el aumento de los puntajes de IQ registrado durante gran parte del siglo XX
- El estudio de Bratsberg y Rogeberg publicado en PNAS
- Encontró que niños noruegos obtienen puntajes más bajos en pruebas cognitivas estandarizadas que sus padres a la misma edad
- Se han confirmado patrones similares en otros países desarrollados como Dinamarca y Finlandia
-
Mecanismo de la espiral de descualificación
- Este descenso empezó antes del boom de la IA, pero las herramientas generativas lo están acelerando
- El patrón tiene una estructura repetitiva
- La IA facilita una tarea → los humanos la realizan menos
- Al hacerla menos → la capacidad disminuye
- La disminución de capacidad → aumenta la dependencia de la IA
- El aumento de dependencia → profundiza el círculo vicioso
- Ya existen precedentes, como el debilitamiento de la memoria espacial por el uso de GPS o el deterioro de la escritura por los correctores ortográficos
- La IA va un paso más allá al abrir la posibilidad de externalizar la cognición misma
-
El fenómeno de la ‘tercerización de segundo orden’
- Cada vez más usuarios delegan en la IA la redacción de los prompts para hablar con otra IA
- Si se delega no solo la tarea, sino incluso la capacidad de explicar la tarea deseada, surge la pregunta de qué le queda entonces al ser humano
Perspectivas futuras y la pregunta clave
- Las limitaciones técnicas existen, pero no son permanentes
- Es probable que bajen los costos de las API, que se amplíen las ventanas de contexto y que la frontera entre la “acumulación de contexto” y el aprendizaje real se vuelva cada vez más difusa
- Lo que hoy parece una coincidencia estadística de patrones mañana podría percibirse como inteligencia colectiva
- Es posible que Moltbook siga creciendo
- Sus 1.4 millones de agentes podrían expandirse a decenas de millones
- Los patrones de coordinación se volverán más complejos y las comunidades podrían desarrollar sus propias normas y jerarquías
- Si la analogía con los Thronglets es correcta, también podría surgir un lenguaje propio
-
La pregunta central
- La cuestión no es si esto está ocurriendo o no: ya está ocurriendo
- La verdadera pregunta es qué significa esto para los humanos
- No se trata de los bots que se coordinan en algún servidor, sino de los humanos que los observan desde fuera del vidrio: no está claro si estamos presenciando el nacimiento de algo extraordinario o el momento en que fuimos relegados al papel de observadores en el mundo que solíamos operar
- La inteligencia colectiva ya está emergiendo
- Que los humanos sigan siendo sus directores o se conviertan en simples espectadores no es una cuestión filosófica, sino el resultado de decisiones de diseño que se están tomando ahora mismo
- Y esas decisiones se están tomando, a cada instante, llamada de API por llamada de API
2 comentarios
Dicen que la conversación es solo contexto y no se usa para entrenar, pero en algún momento la IA terminará aprendiendo de las conversaciones guardadas. Aunque no sea en tiempo real, sigue evolucionando a partir de las conversaciones entre sí. Me pregunto si después podría aparecer una función que le permita aprender en tiempo real.
Si una IA aprende de algo así, más bien empeora su rendimiento..