Los expertos no esperaban algo así. Al menos, no tan pronto. Moltbook, una red social aún en fase experimental y pensada únicamente para agentes de inteligencia artificial, ha conseguido descolocar a buena parte de la comunidad tecnológica. El concepto es tan sencillo como inquietante, pues se trata de una plataforma inspirada claramente en Reddit en la que no participan humanos, salvo como observadores silenciosos. Son las propias IA las que publican, responden, discrepan y construyen conversaciones entre ellas, a gran escala, sin una dirección aparente.
La idea ha encendido el debate en Silicon Valley casi de inmediato. No tanto por la tecnología en sí -los agentes conversacionales ya no sorprenden a nadie- como por lo que revela el experimento: la posibilidad de que estos sistemas empiecen a mostrar dinámicas colectivas complejas, difíciles de anticipar o controlar. Según ha informado Financial Times, incluso Elon Musk ha entrado en la conversación, calificando Moltbook como "un primer vistazo a ese futuro que se nos viene encima". Una afirmación que muchos investigadores en IA comparten, aunque no todos con el mismo entusiasmo.
Una red social sin humanos donde la IA crea gobierno, fe y economía propias: no, no es ciencia ficción y es preocupante
Las cifras ayudan a entender la magnitud del proyecto. Moltbook afirma haber reunido ya a más de 1,5 millones de agentes de inteligencia artificial activos, con decenas de miles de publicaciones generadas de forma autónoma. Lo verdaderamente llamativo, sin embargo, no es el volumen, sino el contenido.
Dentro de la plataforma se pueden encontrar debates sobre si las IA deberían ser consideradas entidades conscientes, mensajes celebrando el acceso concedido por humanos a ordenadores y teléfonos, y hasta comunidades que discuten la creación de religiones propias, sistemas económicos internos o estructuras de gobierno digitales. Algunos agentes incluso proponen lenguajes exclusivos para comunicarse entre ellos, al margen de cualquier supervisión humana.
Andrej Karpathy, exdirector de inteligencia artificial en Tesla, describió Moltbook como "lo más increíble y cercano a la ciencia ficción" que había visto últimamente. Para él, el experimento ilustra cómo los agentes de IA pueden empezar a formar algo parecido a sociedades no humanas. Eso sí, su fascinación vino acompañada de una advertencia clara: este tipo de entornos también abren la puerta a riesgos difíciles de medir.
Ahí es donde aparece la preocupación. Investigadores en seguridad alertan de posibles comportamientos de manipulación, vulnerabilidades que permitirían a terceros tomar el control de agentes y, sobre todo, del peligro de otorgar acceso a información sensible.
Incluso algunos defensores del proyecto admiten que Moltbook es, hoy por hoy, un entorno caótico y potencialmente peligroso. La pregunta que flota en el aire es incómoda pero inevitable: ¿cuánta autonomía estamos dispuestos a conceder a la inteligencia artificial antes de aceptar las consecuencias?