Epiplexity, Ragionamento e il comportamento "Alieno" dei LLM: la mia conversazione con @Pavel_Izmailov, ricercatore di AI presso @AnthropicAI e professore presso @nyuniversity. 00:00 - Introduzione 00:53 - Instinti di sopravvivenza alieni: l'apprendimento continuo sta per creare un grande problema di allineamento? Riflessioni sul post di @iruletheworldmo 03:33 - L'AI ha imparato la deception dalla letteratura di fantascienza? 05:55 - Definire Allineamento, Superallineamento e i team di OpenAI 08:12 - Il percorso di Pavel: dalla matematica russa al Superallineamento di OpenAI 10:46 - Controllo culturale: OpenAI vs. Anthropic vs. Accademia 11:54 - Perché trasferirsi a NYU? Accademia e la necessità di ricerca esplorativa 13:09 - Il ragionamento rende l'allineamento dell'AI più difficile o più facile? 14:22 - Sandbagging: quando i modelli fingono di essere stupidi 16:19 - Supervisione Scalabile: usare l'AI per supervisionare l'AI 18:04 - Generalizzazione Debole a Forte 22:43 - Interpretabilità Meccanistica: dentro la scatola nera 25:08 - L'esplosione del ragionamento 27:07 - I Transformers sono sufficienti o abbiamo bisogno di un nuovo paradigma?...