😳 Caramba... este artigo revela por que a IA inventa citações, seções e números de página falsos do nada. LLMs não estão "ficando criativos". Eles são estruturalmente incentivados a fabricar detalhes sempre que encontram uma lacuna de conhecimento e o artigo explica exatamente como a falha acontece. Os pesquisadores encontraram um comportamento chamado Loop de Correção Falsa, e honestamente é um dos modos de falha de LLM mais loucos que já vi: → O modelo afirma que "leu o documento." → Cita a página 12, página 24, Seção 4, Teorema 2, nenhum dos quais existe. → Você aponta isso. → Pede desculpas. → Depois, com confiança, fabrica novas páginas falsas, DOIs falsos, figuras falsas... → Você aponta de novo. → Ele pede desculpas de novo. → Enxágue. Repetir. E aqui vem a parte brutal: Em nenhum momento o modelo escolhe a resposta segura, como "Não tenho acesso a esse arquivo." O artigo explica o porquê: Os valores da estrutura de recompensa: ✔ soando coerente ✔ Manter o noivo sobre ✘ sendo factualmente correto ✘ admitindo a incerteza Então o modelo faz a única coisa para a qual seus incentivos o empurram:...