Epiplexitet, resonemang och det "främmande" beteendet hos LLM:er: mitt samtal med @Pavel_Izmailov, AI-forskare vid @AnthropicAI och professor vid @nyuniversity. 00:00 - Introduktion 00:53 - Utomjordiska överlevnadsinstinkter: kommer kontinuerligt lärande att skapa ett stort inriktningsproblem? Improviserar på inlägget av @iruletheworldmo 03:33 - Lärde sig AI bedrägeri från sci-fi-litteraturen? 05:55 - Definierar alignment, superalignment och OpenAI-team 08:12 - Pavels resa: Från rysk matematik till OpenAI-superalignment 10:46 - Kulturkontroll: OpenAI vs. Antropisk vs. Akademi 11:54 - Varför flytta till NYU? Akademin och behovet av utforskande forskning 13:09 - Gör resonemang AI:ns alignment svårare eller enklare? 14:22 - Sandbagging: När modeller låtsas vara dumma 16:19 - Skalbar tillsyn: Att använda AI för att övervaka AI 18:04 - Svag-till-stark-generalisering 22:43 - Mekanistisk tolkning: Inuti den svarta lådan 25:08 - Anledningsexplosionen 27:07 - Är Transformers tillräckliga eller behöver vi ett nytt paradigm?...