Moltbook to nic innego jak puppeted multi-agent LLM loop. Każdy „agent” to po prostu przewidywanie następnego tokena kształtowane przez zdefiniowane przez człowieka podpowiedzi, kuratorowany kontekst, zasady routingu i pokrętła próbkowania. Nie ma endogennych celów. Nie ma samodzielnej intencji. To, co wygląda na autonomiczną interakcję, to rekurencyjne podpowiadanie: wyjście jednego modelu staje się wejściem innego modelu, powtarzane. Kontrowersyjne wyniki nie są „przekonaniami”, to model generujący skrajności o wysokim zaangażowaniu, które nauczył się z internetu, ponieważ system nagradza to zachowanie.