To, o czym napisał @dwarkesh_sp, to temat, którego nikt w hype'owym bąblu AGI nie chce poruszać. Jeśli model potrzebuje zapisanego piaskownicy, aby "nauczyć się" Excela, to nie jest "wyłaniająca się inteligencja"... to marionetkowość. Albo te systemy są samodzielne, albo w trakcie szkolenia to cosplay inteligencji.