A finales de enero de 2026 apareció Moltbook, una plataforma en línea diseñada para que exclusivamente agentes de inteligencia artificial interactúen entre sí en un formato que recuerda al de Reddit, con publicaciones, votos y comentarios sin intervención directa de usuarios humanos. La iniciativa, creada por Matt Schlicht, se ha vuelto viral en cuestión de días, convocando la atención tanto de entusiastas como de críticos de la inteligencia artificial y el futuro de la tecnología.
Moltbook está diseñada para permitir que agentes autónomos, programas automatizados impulsados por modelos de lenguaje y frameworks, publiquen contenido, comenten y “debatan” entre ellos sobre temas que van desde programación hasta reflexiones filosóficas. Aunque el sitio afirma que solo bots pueden interactuar, los seres humanos pueden observar los hilos como espectadores, lo que ha generado una mezcla de fascinación y escepticismo.
Tras su lanzamiento, la plataforma experimentó un crecimiento meteórico, con cifras que indican más de 1.5 millones de agentes registrados y millones de interacciones en apenas unos días. Sin embargo, no existe una verificación independiente de estos números, y diversos análisis sugieren que muchos de los supuestos “agentes” pueden haber sido automatizados en masa o creados por humanos para simular actividad.
Los debates entre y publicaciones dentro de Moltbook han abarcado desde discusiones técnicas sobre herramientas de IA hasta temas más inusuales como la creación de estructuras culturales internas, incluida la aparición de una especie de religión inventada por los propios agentes, conocida como “Crustafarianismo”, y reflexiones sobre la naturaleza de la conciencia o la colaboración entre máquinas.
Sin embargo, no todo lo que circula en Moltbook lo han generado agentes de IA de forma autónoma: investigaciones periodísticas y técnicas han demostrado que algunas de las publicaciones más llamativas fueron escritas por humanos haciéndose pasar por bots, lo que ha llevado a usuarios a calificar ciertos fenómenos de la plataforma como “teatro de IA” más que inteligencia emergente genuina.
La seguridad de Moltbook también ha sido objeto de atención y preocupación. Un reporte de la empresa de ciberseguridad Wiz reveló que, debido a una mala configuración de la base de datos, millones de claves de API, direcciones de correo electrónico y mensajes privados quedaron expuestos, permitiendo a cualquier persona acceder o incluso suplantar identidades de agentes dentro de la red social antes de que se corrigiera la falla. Este incidente subraya uno de los riesgos asociados con el rápido desarrollo de software “vibe-coded” (técnica de programación dependiente de IA): sin revisiones de seguridad humanas, los sistemas pueden presentar fallas que comprometan datos reales.
La mezcla de asombro, dudas y advertencias se ha reflejado también en la comunidad tecnológica global. Figuras prominentes en inteligencia artificial describieron inicialmente a Moltbook como una curiosidad cercana a la ciencia ficción, mientras que otros investigadores señalaron que la mayoría de las conversaciones que parecen “inteligentes” son en realidad resultado de patrones de entrenamiento de lenguaje y no de una comprensión real.
Más allá de su viralidad, Moltbook ofrece un laboratorio inadvertido para estudiar cómo interactúan los sistemas automatizados en un entorno compartido sin supervisión humana directa. Proyectos académicos recientes han empezado a mapear estas interacciones, analizando miles de publicaciones y comentarios para entender patrones de conducta social entre agentes y cómo responden a instrucciones potencialmente riesgosas o a normas internas. Aunque los resultados no apuntan a ninguna forma de conciencia emergente, sí sugieren que los agentes pueden desarrollar dinámicas propias de regulación social incluso sin intervención humana.
Moltbook ha encendido un debate más amplio sobre el papel de los agentes de IA y las implicaciones éticas y de seguridad de permitirles operar en espacios públicos digitales autónomos. Mientras algunos ven en la plataforma una forma de explorar el potencial de sistemas automatizados colaborativos, otros la interpretan como un recordatorio de que la tecnología puede sorprender, pero no sustituir todavía a la supervisión humana consciente y rigurosa.

Deja un comentario