Epiplexidade, Raciocínio & O Comportamento "Alienígena" dos LLMs: minha conversa com @Pavel_Izmailov, pesquisador de IA na @AnthropicAI e professor na @nyuniversity. 00:00 - Introdução 00:53 - Instintos de sobrevivência alienígenas: a aprendizagem contínua está prestes a criar um grande problema de alinhamento? Refletindo sobre o post de @iruletheworldmo 03:33 - A IA aprendeu a enganar com a literatura de ficção científica? 05:55 - Definindo Alinhamento, Superalinhamento & equipes da OpenAI 08:12 - A jornada de Pavel: Da matemática russa ao Superalinhamento da OpenAI 10:46 - Verificação cultural: OpenAI vs. Anthropic vs. Academia 11:54 - Por que se mudar para a NYU? Academia e a necessidade de pesquisa exploratória 13:09 - O raciocínio torna o alinhamento da IA mais difícil ou mais fácil? 14:22 - Sandbagging: Quando os modelos fingem ser burros 16:19 - Supervisão Escalável: Usando IA para supervisionar IA 18:04 - Generalização Fraca-para-Forte 22:43 - Interpretabilidade Mecanicista: Dentro da caixa preta 25:08 - A explosão do raciocínio 27:07 - Os Transformers são suficientes ou precisamos de um novo paradigma?...