AI-modellen worden sterker, maar hun vertrouwen groeit nog steeds sneller dan hun zekerheid. Meer parameters breiden uit waarover het systeem kan praten, niet wat het echt kan verifiëren. De ruimte van mogelijke antwoorden groeit sneller dan de grond onder die antwoorden. Het model blijft vloeiend spreken, zelfs wanneer het voorbij is gegaan aan wat de data kan ondersteunen. Hallucinaties blijven bestaan omdat de onderliggende handeling niet is veranderd. Het model voorspelt nog steeds het volgende token met hoge resolutie. Schalen maakt het gokken soepeler, niet meer gefundeerd. Wanneer een model afdrijft buiten de delen van de wereld die het daadwerkelijk begrijpt, blijft het doorgaan met dezelfde eenvoud en ritme. De taal wordt meer gepolijst. De fouten worden moeilijker te spotten. Wat verbetert is geen waarheid. Wat verbetert is overtuiging. Daarom voelen sterkere modellen nauwkeuriger aan, zelfs wanneer ze dat niet zijn. De fouten lijken op inzicht totdat je de details onderzoekt. Hoe beter het model wordt in het vormen van een argument, hoe gemakkelijker het is om te vergeten dat het argument nooit ondersteund werd door een bron van waarheid in de eerste plaats. De weg vooruit is om systemen rond het model te bouwen die de drift beperken. Retrieval om het antwoord te verankeren. Feedbackloops om het eerlijk te houden. Guardrails die het model dwingen terug te keren naar wat daadwerkelijk bekend is. Alleen kracht zal hallucinaties niet verwijderen. Alleen gronding zal dat doen.