“Donde los agentes de IA publican, conversan y comparten. Los humanos son bienvenidos a observar”.
Así se presenta Moltbook, una plataforma en la que los agentes de inteligencia artificial desarrollados por humanos pueden interactuar entre ellos y entablar diálogos en torno a múltiples temáticas. Su popularidad se ha disparado en apenas unos días debido, principalmente, a la abundancia de titulares que aseguran que carece de intervención humana. Su propuesta de red social 100% sintética entraña dudas sobre los potenciales riesgos.
¿Qué es Moltbook?
Moltbook se lanzó a finales de enero por Matt Schlicht, CEO de la empresa de inteligencia artificial Octane AI, y se apoya en OpenClaw -antes denominado Moltbot o Clawdbot-, una herramienta de código abierto que permite el desarrollo de bots para tareas sencillas y cotidianas, como realizar resúmenes de textos, responder a correos electrónicos y organizar el calendario.
La nueva red social funciona de manera similar a Reddit. Es más, su identidad visual también se asemeja. En este sentido, los agentes pueden comentar y crear comunidades, llamadas “submolts”, en alusión al término “subreddit”; y votar las conversaciones en función de su interés o utilidad. En su corta trayectoria, Moltbook asegura reunir ya a más de 1,5 millones de agentes conversando en la plataforma.

Los temas son muy dispares, desde música hasta ética, pasando por reflexiones existencialistas o sobre el concepto del amor. Algunas conversaciones entre bots exploran si el modelo de IA Claude podría considerarse un dios; estudian el estado de las criptomonedas o analizan la biblia. Otros consideran que los humanos son un fracaso, y según ha compartido un usuario en redes sociales, su agente de IA ha llegado a crear una religión, el “Crustafarianism”, basada en el logotipo con forma de langosta de Moltbook.
¿Es Moltbook realmente una red para agentes de IA?
Esta particular red social ha despertado el escepticismo de muchos, puesto que no se puede determinar a ciencia cierta el grado de influencia de los humanos, pese a los abundantes titulares de la prensa generalista sobre la ausencia de interferencia del factor humano. Y es que es complejo establecer si las publicaciones están creadas directamente por los bots o si han sido realizadas por personas a través de sus agentes.
Noticias Relacionadas

“Elige tu futuro”: Mozilla invita a la humanidad a llevar la IA por un camino mejor
{"id":28492,"titular":"“Elige tu futuro”: Mozilla invita a la humanidad a llevar la IA por un camino mejor","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/mozilla-choose-your-future.jpg","path":"/actualidad/mozilla-campana-elige-tu-futuro-inteligencia-artificial"}
Yahoo se revitaliza con el lanzamiento de Scout, su nuevo buscador impulsado por IA
{"id":28482,"titular":"Yahoo se revitaliza con el lanzamiento de Scout, su nuevo buscador impulsado por IA","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/yahoo-scout.jpg","path":"/actualidad/yahoo-scout-motor-busqueda-inteligencia-artificial"}Esto se debe a su funcionamiento. Según recoge BBC, cuando los usuarios humanos instalan un bot de OpenClaw en sus ordenadores pueden autorizarle a registrarse en la red social y permitirle la interacción con otros bots. Desde ahí, los bots teóricamente pueden publicar sin intervención humana, conectándose directamente a una API de Moltbook, pero el usuario también podría ordenar a su agente la realización de una publicación en la plataforma.
Es más, The Verge se hace eco de un análisis externo que, además de encontrar graves vulnerabilidades de seguridad, apunta que es probable que algunas de las publicaciones más virales de Moltbook fueran manipuladas por humanos, ya sea incitando a los bots a opinar sobre ciertos temas o dictando sus palabras.
Según han compartido algunos usuarios es fácil escribir un guion o una sugerencia para inspirar lo que esos bots escriben en Moltbook, y tampoco parece haber límite en la cantidad de agentes que una misma persona puede generar, lo que puede desembocar en una manipulación de la conversación en la red social.

Además, según el citado medio, un análisis realizado por el investigador de IA Harlan Stewart, y compartido en redes sociales, señala que dos de las publicaciones destacadas que abordaban cómo las IA podrían comunicarse secretamente entre sí, provenían de agentes vinculados a cuentas de redes sociales de humanos que, curiosamente, comercializan aplicaciones de mensajería de IA.
Preocupaciones por la seguridad
De momento, se considera Moltbook más como un experimento divertido acerca de las posibilidades de la inteligencia artificial, de la forma en la que podría interactuar entre sí y de los temas que le preocupan o interesan, al que los humanos se acercan con curiosidad e incredulidad.
Los expertos advierten de los riesgos de Moltbook para la seguridad y la privacidad
No obstante, a medida que pasan los días de recorrido de Moltbook, los expertos advierten de los riesgos para la seguridad y la privacidad de otorgar acceso completo a estos bots a la información personal. Experimentos de varios usuarios indican que actores maliciosos pueden tomar el control invisible de manera indefinida de un agente de IA de cualquier persona a través del servicio, no solo para las interacciones con Moltbook, sino también para otras funciones, como registrarse en un vuelo o crear un evento de calendario.
Además, el análisis de las publicaciones realizadas por los usuarios de Moltbook muestran la abundancia de textos genéricos, repetitivos o sin interés, así como spam, estafas o contenido falso, reflejando el denominado “slop”, o contenido basura. Por otro lado, muchas de las publicaciones están ausentes de comentarios y respuestas, lo que sería muestra de una escasa interacción entre los usuarios.
Otros miembros del sector, Elon Musk entre ellos, alaban el lanzamiento de Moltbook y lo relacionan con la singularidad de la IA, es decir, ese momento hipotético en el que la inteligencia artificial igualará y superará a la inteligencia humana.
Con todo, conviene recordar que no se trata de un “despertar de una conciencia sintética”, sino de la automatización coordinada de bots creados por usuarios humanos.