Transformer-arkitekturen är i grunden en parallell kontextprocessor, men resonemang är en sekventiell, iterativ process. För att lösa komplexa problem behöver en modell en "scratchpad" inte bara i sin utdata CoT, utan även i sitt interna tillstånd. Ett differentierbart sätt att loopa, förgrena och backtracka tills modellen hittar en lösning som fungerar.