Aquí están los puntos más importantes del podcast de hoy de Ilya Sutskever: - superinteligencia en 5-20 años - la escalada actual se estancará bruscamente; Volvemos a la investigación real - superinteligencia = aprendiz continuo superrápido, no oráculo terminado - los modelos generalizan 100 veces peor que los humanos, el mayor bloqueador de la AGI - Necesito un paradigma de aprendizaje automático completamente nuevo (tengo ideas, no puedo compartirlas ahora mismo) - El impacto de la IA será duro, pero solo después de la difusión económica - los avances históricamente requerían casi ningún cálculo - SSI tiene suficiente computación de investigación enfocada para ganar - el RL actual ya consume más cómputo que el pre-entrenamiento