Voici la version longue de notre article dans Nature. Notre argument est simple : l'approximation statistique n'est pas la même chose que l'intelligence. De bons scores de référence disent souvent très peu sur la façon dont les LLM se comportent face à la nouveauté, à l'incertitude ou à des objectifs changeants. Plus important encore, des comportements similaires peuvent découler de processus fondamentalement différents. Dans un autre article, nous avons identifié sept lignes de faille épistémologiques entre les humains et les LLM. Par exemple, les LLM n'ont pas de représentation interne de ce qui est vrai. Ils génèrent souvent des contradictions confiantes, surtout lors d'interactions plus longues, car ils ne suivent pas ce qui est réellement vrai. Un autre exemple. Oui, les LLM ont résolu certains problèmes mathématiques ouverts, mais ces cas impliquent généralement l'application de méthodes connues à des problèmes bien définis. Les LLM ne peuvent rien inventer qui soit véritablement nouveau et vrai en même temps, car ils manquent de la machinerie épistémique pour déterminer ce qui est vrai. Tout cela ne signifie pas que les LLM sont inutiles. Au contraire : ils sont extraordinairement utiles. Mais nous devrions être prudents quant à ce qu'ils sont et ce qu'ils ne sont pas. Produire un texte plausible n'est pas la même chose que comprendre. La prédiction statistique n'est pas la même chose que l'intelligence. Donc, malgré le battage médiatique des suspects habituels, l'AGI n'a pas été atteinte. * article dans la première réponse En collaboration avec @Walter4C et @GaryMarcus