Dwarkesh a cuisiné avec cet avis : -Paradoxe RLVR : Les laboratoires dépensent des milliards à préformer des compétences spécifiques, ce qui révèle une tension fondamentale : si nous sommes proches d'apprenants semblables aux humains, cela rend toute cette pré-formation inutile puisque ces derniers apprendraient sur le tas. -La véritable valeur du travail humain : Nous n'avons pas besoin de pipelines de formation personnalisés pour chaque micro-tâche ; l'IA actuelle le fait. -Le retard de diffusion = faire face : Si les modèles étaient équivalents aux humains, ils s'intégreraient plus rapidement que les employés [On peut débattre de ce point - la provenance des données, la confiance des entreprises dans la fiabilité, les craintes de remplacement, etc. peuvent raisonnablement retarder le déploiement de l'IA ; mais, nous serions tous convaincus que c'est une meilleure option et ce n'est pas encore vrai, donc le point reste valable selon moi]. -Le changement de but a eu lieu : Nous avons résolu ce que nous pensions être des goulets d'étranglement de l'AGI (par exemple, le raisonnement) mais nous ne pouvons pas encore automatiser 95 % du travail de connaissance. L'intelligence est plus que ce que nous réalisions et avions précédemment défini et c'est acceptable de l'admettre. -Goulet d'étranglement de l'apprentissage continu : L'explosivité future de l'IA dépend de la résolution de l'apprentissage continu - agents déployés, apprenant de l'expérience, fusionnant les connaissances dans un "esprit collectif". Nous en sommes loin, mais je suis optimiste quant à notre capacité à y parvenir !