Epipleksitet, resonnement og den «fremmede» atferden til LLM-er: min samtale med @Pavel_Izmailov, AI-forsker ved @AnthropicAI og professor ved @nyuniversity. 00:00 - Intro 00:53 - Utenomjordiske overlevelsesinstinkter: er kontinuerlig læring i ferd med å skape et stort justeringsproblem? Improviserer på innlegget av @iruletheworldmo 03:33 - Lærte AI bedrag fra sci-fi-litteraturen? 05:55 - Definering av alignment, superalignment og OpenAI-team 08:12 - Pavels reise: Fra russisk matematikk til OpenAI Superalignment 10:46 - Kultursjekk: OpenAI vs. Antropisk vs. Akademia 11:54 - Hvorfor flytte til NYU? Akademia og behovet for utforskende forskning 13:09 - Gjør resonnement AI-tilpasning vanskeligere eller lettere? 14:22 - Sandbagging: Når modeller later som de er dumme 16:19 - Skalerbar tilsyn: Bruk av KI til å overvåke KI 18:04 - Generalisering fra svak til sterk 22:43 - Mekanistisk tolkbarhet: Inne i den svarte boksen 25:08 - Eksplosjonen bak resonnementet 27:07 - Er Transformers nok, eller trenger vi et nytt paradigme?...