Epiplexitate, raționament și comportamentul "străin" al LLM-urilor: conversația mea cu @Pavel_Izmailov, cercetător AI la @AnthropicAI și profesor la @nyuniversity. 00:00 - Introducere 00:53 - Instinctele de supraviețuire ale extratereștrilor: este învățarea continuă o problemă majoră de aliniere? Riffing la postare de @iruletheworldmo 03:33 - A învățat AI înșelăciunea din literatura SF? 05:55 - Definirea echipelor Alignment, Superalignment & OpenAI 08:12 - Călătoria lui Pavel: De la matematica rusă la Superalinierea OpenAI 10:46 - Verificare culturală: OpenAI vs. Anthropic vs. Academia 11:54 - De ce să te muți la NYU? Mediul academic și necesitatea cercetării exploratorii 13:09 - Raționamentul face alinierea AI mai dificilă sau mai ușoară? 14:22 - Sandbagging: Când modelele se prefac că sunt proaste 16:19 - Supraveghere scalabilă: Folosirea AI pentru a supraveghea AI 18:04 - Generalizare de la slab la puternic 22:43 - Interpretabilitate mecanică: În interiorul cutiei negre 25:08 - Explozia raționamentului 27:07 - Sunt Transformers suficienți sau avem nevoie de un nou paradigmă?...