😳 Mierda... este artículo revela por qué la IA inventa citas, secciones y números de página falsos de la nada. Los LLMs no son "ser creativos". Están estructuralmente incentivados a fabricar detalles siempre que encuentran una brecha de conocimiento y el trabajo desglosa exactamente cómo ocurre el fallo. Los investigadores encontraron un comportamiento llamado el Bucle de Falsa Corrección, y honestamente es uno de los modos de fallo de LLM más salvajes que he visto nunca: → El modelo afirma que "leyó el documento." → Cita la página 12, la página 24, la Sección 4, el Teorema 2, ninguno de los cuales existe. → Tú lo señalas. → Pide disculpas. → Luego fabrica con confianza nuevas páginas falsas, DOIs falsos, figuras falsas... → Lo vuelves a señalar. → Vuelve a pedir perdón. → Enjuague. Repetir. Y aquí viene la parte brutal: En ningún momento el modelo elige la respuesta segura como "No tengo acceso a ese archivo." El artículo explica por qué: Los valores de la estructura de recompensa: ✔ sonando coherente ✔ Mantenerse comprometido sobre ✘ siendo correctos en los hechos ✘ admitiendo incertidumbre Así que el modelo hace lo único hacia lo que lo empujan sus incentivos:...