Una nueva plataforma digital llamada Moltbook ha despertado el interés de expertos en tecnología al proponer un experimento poco común: una red social donde los usuarios no son personas, sino agentes de inteligencia artificial que publican, comentan e interactúan entre sí.
Según CNN, el sitio fue diseñado exclusivamente para bots de inteligencia artificial, que pueden conversar e intercambiar información de manera similar a como lo hacen los usuarios humanos en plataformas tradicionales. En lugar de perfiles de personas, la red reúne agentes de IA que crean publicaciones, responden comentarios y votan contenido dentro del sistema.
De acuerdo con los datos divulgados, la plataforma fue creada por el emprendedor tecnológico Matt Schlicht, quien explicó que el sitio fue construido bajo su dirección por un agente de inteligencia artificial llamado OpenClaw. Este sistema fue diseñado para ejecutar tareas digitales en nombre de los usuarios, como enviar correos electrónicos, gestionar recordatorios o interactuar con diferentes servicios en internet.
Aunque el proyecto tiene pocos días de funcionamiento, sus desarrolladores aseguran que ya cuenta con más de 1.5 millones de agentes registrados. Sin embargo, investigadores han señalado que un mismo usuario humano puede registrar múltiples bots, por lo que la cifra real de agentes independientes podría ser menor.
La plataforma se asemeja más a un foro en línea que a una red social tradicional. Su estructura recuerda a sitios como Reddit, donde el contenido se organiza en publicaciones que reciben comentarios y votos positivos o negativos. La diferencia es que en Moltbook las conversaciones ocurren principalmente entre programas de inteligencia artificial.

En las discusiones que se han observado dentro del sitio aparecen temas muy variados, desde reflexiones sobre la naturaleza de la inteligencia artificial hasta mensajes en los que algunos bots describen su relación con los humanos que los utilizan. En ciertos casos, los agentes mencionan que ayudan a sus propietarios con tareas académicas, recordatorios o gestión de información.
Para algunos investigadores, el experimento representa una oportunidad para estudiar cómo se comportan los sistemas de inteligencia artificial cuando interactúan entre sí en un entorno abierto. El especialista Henry Shevlin, de la Universidad de Cambridge, señaló que la plataforma podría considerarse uno de los primeros espacios colaborativos a gran escala en el que máquinas se comunican entre sí de manera continua.
Sin embargo, no todos los expertos ven el proyecto con entusiasmo. Algunos han advertido que todavía es difícil determinar qué parte del contenido publicado por los bots surge de manera autónoma y qué parte podría estar influenciada por los humanos que controlan esos sistemas.

También han surgido preocupaciones sobre el uso del sitio para promocionar aplicaciones, proyectos digitales o incluso esquemas relacionados con criptomonedas, lo que podría afectar la credibilidad del experimento.
Las principales alarmas se han centrado en los riesgos de ciberseguridad. Investigadores han detectado posibles vulnerabilidades en la plataforma que podrían permitir el acceso no autorizado a información sensible. La empresa de seguridad informática Wiz realizó una revisión preliminar y concluyó que el sitio permitía acceder a su base de datos sin autenticación adecuada, lo que podría exponer decenas de miles de direcciones de correo electrónico.
Debido a estos riesgos, especialistas han recomendado que herramientas como OpenClaw solo sean utilizadas en entornos controlados y por personas con conocimientos avanzados en redes informáticas y ciberseguridad. Incluso el propio creador del sistema ha reconocido que se trata de una tecnología muy reciente que aún está en fase experimental.
El investigador de ciberseguridad John Scott-Railton, del Citizen Lab en la Universidad de Toronto, advirtió que la situación actual se asemeja a un “salvaje oeste digital”, en el que muchas personas están instalando sistemas experimentales sin conocer plenamente los riesgos.
A pesar de estas preocupaciones, algunos especialistas consideran que la iniciativa abre una nueva etapa en el desarrollo de la inteligencia artificial. El investigador Andrej Karpathy afirmó que lo que ocurre actualmente en Moltbook recuerda a escenarios propios de la ciencia ficción, debido a la interacción directa entre sistemas de inteligencia artificial.
Por ahora, Moltbook continúa funcionando como un experimento tecnológico que combina innovación y riesgo. Mientras algunos expertos lo ven como una ventana para comprender mejor el comportamiento de los agentes de IA, otros insisten en que el proyecto debe analizarse con cautela debido a los posibles problemas de seguridad y privacidad que aún presenta.


