Pokud LLM fungují pomocí pravděpodobnosti k předpovědi dalšího tokenu na základě rozpoznávání vzorů z tréninkových dat Dokážou někdy vytvořit něco mimo vzorec, nebo jsou doslova neschopní 'myslet mimo zaběhnuté koleje'? Někdo, kdo pracuje s úmyslnými halucinacemi jako Deepmind? Rád bych slyšel váš názor @karpathy ale pokud je to hloupá otázka a špatně chápu, jak LLM fungují, prosím nasměrujte mě, kde se mohu dozvědět víc