Les modèles d'IA deviennent plus puissants, mais leur confiance croît toujours plus vite que leur certitude. Plus de paramètres élargissent ce dont le système peut parler, pas ce qu'il peut vraiment vérifier. L'espace des réponses possibles croît plus vite que le sol sous ces réponses. Le modèle continue de parler couramment même lorsqu'il a dépassé ce que les données peuvent soutenir. Les hallucinations persistent parce que l'acte sous-jacent n'a pas changé. Le modèle prédit toujours le prochain jeton à haute résolution. L'échelle rend les conjectures plus fluides, pas plus ancrées. Lorsqu'un modèle dérive en dehors des parties du monde qu'il comprend réellement, il continue avec la même aisance et le même rythme. Le langage devient plus poli. Les erreurs deviennent plus difficiles à repérer. Ce qui s'améliore n'est pas la vérité. Ce qui s'améliore, c'est la persuasion. C'est pourquoi des modèles plus puissants semblent plus précis même lorsqu'ils ne le sont pas. Les erreurs ressemblent à des aperçus jusqu'à ce que vous examiniez les détails. Plus le modèle devient habile à façonner un argument, plus il est facile d'oublier que l'argument n'a jamais été soutenu par une source de vérité en premier lieu. Le chemin à suivre est de construire des systèmes autour du modèle qui contraignent la dérive. Récupération pour ancrer la réponse. Boucles de rétroaction pour le garder honnête. Barrières qui forcent le modèle à revenir à ce qui est réellement connu. Le pouvoir seul ne supprimera pas les hallucinations. Seul l'ancrage le fera.