Jeśli LLM-y działają na podstawie prawdopodobieństwa, aby przewidzieć następny token na podstawie rozpoznawania wzorców z danych treningowych czy mogą kiedykolwiek wyprodukować coś poza wzorcem, czy są dosłownie niezdolne do myślenia "poza schematem"? czy ktoś pracuje nad celowymi halucynacjami, tak jak robił to DeepMind? chciałbym poznać Twoje zdanie @karpathy, ale proszę, wskaż mi, gdzie mogę się dowiedzieć więcej, jeśli to głupie pytanie i źle rozumiem, jak działają LLM-y.