Aqui está a versão mais longa do nosso artigo na Nature. O nosso argumento é simples: a aproximação estatística não é a mesma coisa que inteligência. Pontuações fortes em benchmarks muitas vezes dizem muito pouco sobre como os LLMs se comportam sob novidade, incerteza ou objetivos em mudança. Ainda mais importante, comportamentos semelhantes podem surgir de processos fundamentalmente diferentes. Em outro artigo, identificámos sete linhas de falha epistemológica entre humanos e LLMs. Por exemplo, os LLMs não têm uma representação interna do que é verdadeiro. Eles frequentemente geram contradições confiantes, especialmente em interações mais longas, porque não acompanham o que é realmente verdadeiro. Outro exemplo. Sim, os LLMs resolveram alguns problemas matemáticos abertos, mas esses casos normalmente envolvem a aplicação de métodos conhecidos a problemas bem definidos. Os LLMs não conseguem inventar nada que seja verdadeiramente novo e verdadeiro ao mesmo tempo, porque carecem da maquinaria epistémica para determinar o que é verdadeiro. Nada disso significa que os LLMs são inúteis. Muito pelo contrário: eles são extraordinariamente úteis. Mas devemos ter cuidado com o que eles são e o que não são. Produzir texto plausível não é o mesmo que entender. A previsão estatística não é o mesmo que inteligência. Portanto, apesar do alvoroço dos suspeitos do costume, a AGI não foi alcançada. * apresentação no primeiro comentário Conjunto com @Walter4C e @GaryMarcus