Epiplexität, Argumentation & Das "Alien" Verhalten von LLMs: mein Gespräch mit @Pavel_Izmailov, KI-Forscher bei @AnthropicAI und Professor an der @nyuniversity. 00:00 - Einführung 00:53 - Alien Überlebensinstinkte: Steht das kontinuierliche Lernen vor einem großen Alignmentsproblem? Gedanken zu dem Beitrag von @iruletheworldmo 03:33 - Hat KI Täuschung aus der Science-Fiction-Literatur gelernt? 05:55 - Definition von Alignment, Superalignment & OpenAI-Teams 08:12 - Pavels Reise: Von russischer Mathematik zu OpenAI Superalignment 10:46 - Kulturcheck: OpenAI vs. Anthropic vs. Akademia 11:54 - Warum nach NYU wechseln? Akademia und die Notwendigkeit für explorative Forschung 13:09 - Macht Argumentation das KI-Alignment schwieriger oder einfacher? 14:22 - Sandbagging: Wenn Modelle vorgeben, dumm zu sein 16:19 - Skalierbare Aufsicht: KI zur Überwachung von KI nutzen 18:04 - Schwache zu starke Generalisierung 22:43 - Mechanistische Interpretierbarkeit: Einblick in die Black Box 25:08 - Die Argumentationsexplosion 27:07 - Sind Transformer genug oder brauchen wir ein neues Paradigma?...