L'IA mentira toujours. Ce n'est pas un bug, c'est une loi mathématique. Moi, étudiant en mathématiques à l'Université Carnegie Mellon, je vais vous expliquer pourquoi avec des mathématiques. Tous les modèles de langage ne font qu'une seule chose : prédire le mot le plus probable suivant en fonction de tout ce qu'ils ont lu. Mais il y a un nœud mortel ici. La supposition du modèle, nous l'appelons q(x). La probabilité du monde réel, nous l'appelons p(x). q(x) ne pourra jamais être égal à p(x). Entre eux, il y a toujours un fossé. Il existe une formule mathématique qui sert à mesurer ce fossé. Tant que le modèle ne peut pas prédire parfaitement le mot suivant - il ne le pourra jamais - ce fossé ne sera jamais nul. Alors, que se passe-t-il lorsque l'IA ne connaît pas la vérité ? Elle ne peut pas s'arrêter, elle doit vous donner une réponse. Elle doit se forcer à sortir une réponse qu'elle pense être "la plus proche". Même si c'est faux. C'est ce qu'on appelle une "hallucination". Une supposition basée sur des informations incomplètes, mais d'une confiance inébranlable. Le plus inquiétant, c'est que les mathématiques fournissent même une limite inférieure. Même le modèle le plus parfait ne pourra jamais avoir un taux d'hallucination inférieur à ce chiffre. ...