Epiplexity, Redeneren & Het "Buitenaardse" Gedrag van LLM's: mijn gesprek met @Pavel_Izmailov, AI-onderzoeker bij @AnthropicAI en professor aan @nyuniversity. 00:00 - Intro 00:53 - Buitenaardse overlevingsinstincten: staat continu leren op het punt een groot afstemmingsprobleem te creëren? Riffend op de post van @iruletheworldmo 03:33 - Heeft AI bedrog geleerd van sci-fi literatuur? 05:55 - Afstemmen, Superafstemming & OpenAI-teams definiëren 08:12 - Pavel’s reis: Van Russische wiskunde naar OpenAI Superafstemming 10:46 - Cultuurcheck: OpenAI vs. Anthropic vs. Academia 11:54 - Waarom verhuizen naar NYU? Academia en de behoefte aan verkennend onderzoek 13:09 - Maakt redeneren AI-afstemming moeilijker of gemakkelijker? 14:22 - Sandbagging: Wanneer modellen doen alsof ze dom zijn 16:19 - Schaalbare Toezicht: AI gebruiken om AI te superviseren 18:04 - Zwakke naar Sterke Generalisatie 22:43 - Mechanistische Interpretatie: Binnen de zwarte doos 25:08 - De redeneringsexplosie 27:07 - Zijn Transformers genoeg of hebben we een nieuw paradigma nodig?...