Als LLM's werken met behulp van waarschijnlijkheid om het volgende token te voorspellen op basis van patroonherkenning uit trainingsdata kunnen ze ooit iets buiten het patroon produceren of zijn ze letterlijk niet in staat om 'buiten de gebaande paden' te denken? werkt er iemand met opzettelijke hallucinaties zoals DeepMind dat deed? ik zou graag jouw mening horen @karpathy, maar wijs me alsjeblieft ook waar ik meer kan leren als het een domme vraag is en ik begrijp niet goed hoe LLM's werken