😳 Caramba… este artigo revela porque é que a IA inventa citações falsas, seções e números de página do nada. Os LLMs não estão a "ser criativos". Eles estão estruturalmente incentivados a fabricar detalhes sempre que encontram uma lacuna de conhecimento e o artigo explica exatamente como essa falha acontece. Os pesquisadores encontraram um comportamento chamado Ciclo de Correção Falsa, e é honestamente um dos modos de falha de LLM mais loucos que já vi: → O modelo afirma que "leu o documento". → Cita a página 12, página 24, Seção 4, Teorema 2, nenhum dos quais existe. → Você aponta isso. → Ele pede desculpas. → Então fabrica com confiança novas páginas falsas, DOIs falsos, figuras falsas… → Você aponta isso novamente. → Ele pede desculpas novamente. → Enxágue. Repita. E aqui está a parte brutal: Em nenhum momento o modelo escolhe a resposta segura como "não tenho acesso a esse arquivo". O artigo explica o porquê: A estrutura de recompensas valoriza: ✔ soar coerente ✔ manter-se engajado over ✘ ser factualmente correto ✘ admitir incerteza Então o modelo faz a única coisa que seus incentivos o empurram a fazer:...