Jos LLM:t toimivat todennäköisyydellä ennustaakseen seuraavan tokenin kuvioiden tunnistuksen perusteella harjoitusdatasta Voivatko he koskaan tuottaa mitään kaavan ulkopuolelta vai ovatko he kirjaimellisesti kykenemättömiä 'ajattelemaan laatikon ulkopuolelta'? Kukaan, joka työskentelee tahallisten hallusinaatioiden kanssa kuten Deepmind? Olisin kiitollinen näkemyksestäsi @karpathy, mutta voisitko ohjata minut mistä voisin oppia lisää, jos kysymys on tyhmä ja ymmärrän väärin, miten LLM:t toimivat