Los modelos de IA están volviéndose más fuertes, pero su confianza sigue creciendo más rápido que su certeza. Más parámetros amplían de qué puede hablar el sistema, no lo que realmente puede verificar. El espacio de respuestas posibles crece más rápido que el suelo bajo esas respuestas. El modelo sigue hablando con fluidez incluso cuando ha sobrepasado lo que los datos pueden respaldar. Las alucinaciones persisten porque el acto subyacente no ha cambiado. El modelo sigue prediciendo el siguiente token a alta resolución. La escalabilidad hace que la conjetura sea más suave, no más fundamentada. Cuando un modelo se aleja de las partes del mundo que realmente entiende, sigue adelante con la misma facilidad y ritmo. El lenguaje se vuelve más pulido. Los errores son más difíciles de detectar. Lo que mejora no es la verdad. Lo que mejora es la persuasión. Por eso, los modelos más fuertes parecen más precisos incluso cuando no lo son. Los errores parecen percepciones hasta que examinas los detalles. Cuanto mejor se vuelve el modelo en dar forma a un argumento, más fácil es olvidar que el argumento nunca estuvo respaldado por una fuente de verdad en primer lugar. El camino a seguir es construir sistemas alrededor del modelo que restrinjan la deriva. Recuperación para anclar la respuesta. Bucles de retroalimentación para mantenerlo honesto. Barandillas que obliguen al modelo a regresar a lo que realmente se conoce. El poder por sí solo no eliminará las alucinaciones. Solo la fundamentación lo hará.