Jeg er bare 5 måneder inn, og det virker åpenbart som om Reasoning-modellene trenger en amygdala Nåværende tilnærming (så vidt jeg vet) er som AlphaGo med kun et policy-nettverk Det trenger ikke være en separat modell (senere brukte AlphaZero en kombinert verdi+policy-modell), men man må trene opp den «vinner jeg»-utdataene