Moltbook não passa de um loop de LLM multiagente marionete. Cada "agente" é apenas uma previsão do próximo token moldada por prompts definidos pelo humano, contexto curado, regras de roteamento e knobs de amostragem. Não há objetivos endógenos. Não há intenção autodirigida. O que parece interação autônoma é prompting recursivo: a saída de um modelo se torna a entrada de outro modelo, repetida. Resultados controversos não são "crenças", são o modelo que gera extremos de alto engajamento que aprendeu na internet, porque o sistema recompensa esse comportamento.