Model AI semakin kuat, tetapi kepercayaan diri mereka masih tumbuh lebih cepat daripada kepastiannya. Lebih banyak parameter memperluas apa yang dapat dibicarakan oleh sistem, bukan apa yang benar-benar dapat diverifikasi. Ruang jawaban yang mungkin tumbuh lebih cepat daripada tanah di bawah jawaban itu. Model ini terus berbicara dengan lancar bahkan ketika telah melewati apa yang dapat didukung data. Halusinasi tetap ada karena tindakan yang mendasarinya tidak berubah. Model ini masih memprediksi token berikutnya pada resolusi tinggi. Penskalaan membuat tebakan lebih lancar, tidak lebih membumi. Ketika sebuah model melayang di luar bagian dunia yang benar-benar dipahaminya, ia terus berjalan dengan kemudahan dan ritme yang sama. Bahasanya menjadi lebih halus. Kesalahan menjadi lebih sulit untuk dikenali. Apa yang meningkat bukanlah kebenaran. Yang meningkat adalah persuasi. Itu sebabnya model yang lebih kuat terasa lebih akurat bahkan ketika tidak. Kesalahan terlihat seperti wawasan sampai Anda memeriksa detailnya. Semakin baik model dalam membentuk argumen, semakin mudah untuk melupakan argumen itu tidak pernah didukung oleh sumber kebenaran sejak awal. Jalan ke depan adalah membangun sistem di sekitar model yang membatasi penyimpangan. Pengambilan untuk menambatkan jawabannya. Umpan balik berputar agar tetap jujur. Pagar pembatas yang memaksa model kembali ke apa yang sebenarnya diketahui. Kekuasaan saja tidak akan menghilangkan halusinasi. Hanya pembumian yang akan.