Epiplexité, Raisonnement & Le comportement "Alien" des LLMs : ma conversation avec @Pavel_Izmailov, chercheur en IA chez @AnthropicAI et professeur à @nyuniversity. 00:00 - Introduction 00:53 - Instincts de survie aliens : l'apprentissage continu est-il sur le point de créer un problème majeur d'alignement ? Réflexion sur le post de @iruletheworldmo 03:33 - L'IA a-t-elle appris la tromperie à partir de la littérature de science-fiction ? 05:55 - Définir l'Alignement, le Superalignement & les équipes d'OpenAI 08:12 - Le parcours de Pavel : Des mathématiques russes au Superalignement d'OpenAI 10:46 - Vérification culturelle : OpenAI vs. Anthropic vs. Académie 11:54 - Pourquoi déménager à NYU ? L'académie et le besoin de recherche exploratoire 13:09 - Le raisonnement rend-il l'alignement de l'IA plus difficile ou plus facile ? 14:22 - Sandbagging : Quand les modèles font semblant d'être stupides 16:19 - Supervision évolutive : Utiliser l'IA pour superviser l'IA 18:04 - Généralisation faible à forte 22:43 - Interprétabilité mécaniste : À l'intérieur de la boîte noire 25:08 - L'explosion du raisonnement 27:07 - Les Transformers sont-ils suffisants ou avons-nous besoin d'un nouveau paradigme ?...