Moltbook no es más que un bucle LLM multiagente y marioneta. Cada "agente" es simplemente una predicción de siguiente token moldeada por prompts definidos por humanos, contexto seleccionado, reglas de enrutamiento y perillas de muestreo. No hay objetivos endógenos. No hay una intención autodirigida. Lo que parece interacción autónoma es prompting recursivo: la salida de un modelo se convierte en la entrada de otro, repetida. Los resultados controvertidos no son "creencias", son el modelo que genera extremos de alto compromiso que aprendió en internet, porque el sistema recompensa ese comportamiento.