Epiplexidad, Razonamiento y el Comportamiento "Alienígena" de los LLMs: mi conversación con @Pavel_Izmailov, investigador de IA en @AnthropicAI y profesor en @nyuniversity. 00:00 - Introducción 00:53 - Instintos de supervivencia alienígenas: ¿está el aprendizaje continuo a punto de crear un gran problema de alineación? Reflexionando sobre la publicación de @iruletheworldmo 03:33 - ¿Aprendió la IA la decepción de la literatura de ciencia ficción? 05:55 - Definiendo Alineación, Superalineación y equipos de OpenAI 08:12 - El viaje de Pavel: De las matemáticas rusas a la Superalineación de OpenAI 10:46 - Verificación cultural: OpenAI vs. Anthropic vs. Academia 11:54 - ¿Por qué mudarse a NYU? La academia y la necesidad de investigación exploratoria 13:09 - ¿Hace que el razonamiento sea más difícil o más fácil la alineación de la IA? 14:22 - Sandbagging: Cuando los modelos fingen ser tontos 16:19 - Supervisión Escalable: Usando IA para supervisar IA 18:04 - Generalización Débil a Fuerte 22:43 - Interpretabilidad Mecanicista: Dentro de la caja negra 25:08 - La explosión del razonamiento 27:07 - ¿Son suficientes los Transformadores o necesitamos un nuevo paradigma?...