Dwarkesh cocinó con esto imo: -Paradoja RLVR: Los laboratorios gastan miles de millones pre-entrenando habilidades específicas que revelan una tensión fundamental: si estamos cerca de aprendices similares a humanos, todo este pre-entrenamiento se vuelve inútil ya que aprenderían en el trabajo. -El verdadero valor del trabajo humano: No necesitamos tuberías de entrenamiento personalizadas para cada micro-tarea; la IA actual lo hace. -Retraso de difusión = cope: Si los modelos fueran equivalentes a humanos, se integrarían más rápido que los empleados [Se puede debatir esto - la procedencia de los datos, la confianza empresarial en la fiabilidad, los miedos a ser reemplazados, etc. pueden razonablemente retrasar el despliegue de la IA; pero, aún estaríamos convencidos de que es una mejor opción y eso aún no es cierto, así que el punto se mantiene imo]. -Se ha producido un cambio de meta: Solucionamos lo que pensábamos que eran cuellos de botella de AGI (por ejemplo, razonamiento) y aún no podemos automatizar el 95% del trabajo del conocimiento. La inteligencia es más de lo que realizamos y hemos definido anteriormente y está bien admitirlo. -Cuello de botella del aprendizaje continuo: La explosividad futura de la IA depende de resolver el aprendizaje continuo - agentes desplegados, aprendiendo de la experiencia, fusionando el conocimiento de nuevo en una "mente colmena". Estamos lejos de esto, pero soy optimista de que podemos llegar allí!