Si les LLM fonctionnent en utilisant la probabilité pour prédire le prochain jeton basé sur la reconnaissance de motifs à partir des données d'entraînement peuvent-ils jamais produire quelque chose en dehors du motif ou sont-ils littéralement incapables de ‘penser en dehors des sentiers battus’ ? y a-t-il quelqu'un qui travaille avec des hallucinations délibérées comme le faisait DeepMind ? j'aimerais avoir votre avis @karpathy mais s'il vous plaît, indiquez-moi où je peux en apprendre davantage si c'est une question idiote et que je ne comprends pas comment fonctionnent les LLM.