Os modelos de IA estão a ficar mais fortes, mas a sua confiança ainda cresce mais rápido do que a sua certeza. Mais parâmetros expandem o que o sistema pode discutir, não o que pode realmente verificar. O espaço de respostas possíveis cresce mais rápido do que a base sob essas respostas. O modelo continua a falar fluentemente mesmo quando ultrapassa o que os dados podem suportar. As alucinações persistem porque o ato subjacente não mudou. O modelo continua a prever o próximo token com alta resolução. A escalabilidade torna a adivinhação mais suave, não mais fundamentada. Quando um modelo se desvia das partes do mundo que realmente entende, continua a avançar com a mesma facilidade e ritmo. A linguagem torna-se mais polida. Os erros tornam-se mais difíceis de detectar. O que melhora não é a verdade. O que melhora é a persuasão. É por isso que modelos mais fortes parecem mais precisos, mesmo quando não são. Os erros parecem insights até que se examine os detalhes. Quanto melhor o modelo se torna em moldar um argumento, mais fácil é esquecer que o argumento nunca foi apoiado por uma fonte de verdade em primeiro lugar. O caminho a seguir é construir sistemas em torno do modelo que restrinjam a deriva. Recuperação para ancorar a resposta. Ciclos de feedback para mantê-lo honesto. Barreira que força o modelo de volta ao que é realmente conhecido. O poder por si só não removerá as alucinações. Apenas a fundamentação o fará.