Dwarkesh cozinhou com este imo: -Paradoxo RLVR: Laboratórios gastando bilhões pré-treinando habilidades específicas que revelam uma tensão fundamental: se estamos perto de aprendizes semelhantes a humanos, isso torna todo esse pré-treinamento inútil, uma vez que eles aprenderiam no trabalho. -O verdadeiro valor do trabalho humano: Não precisamos de pipelines de treinamento personalizados para cada micro-tarefa; a IA atual faz isso. -Atraso na difusão = cope: Se os modelos fossem equivalentes a humanos, eles se integrariam mais rapidamente do que os funcionários [Podemos debater isso - a proveniência dos dados, a confiança dos negócios na confiabilidade, medos de substituição, etc. podem razoavelmente atrasar a implementação da IA; mas, ainda assim, todos estaríamos convencidos de que é uma opção melhor e isso ainda não é verdade, então o ponto se mantém imo]. -O deslocamento de metas ocorreu: Resolvemos o que pensávamos serem gargalos da AGI (por exemplo, raciocínio), mas ainda não conseguimos automatizar 95% do trabalho de conhecimento. A inteligência é mais do que percebemos e definimos anteriormente, e tudo bem admitir isso. -Gargalo de Aprendizado Contínuo: A explosão futura da IA depende de resolver o aprendizado contínuo - agentes implantados, aprendendo com a experiência, fundindo conhecimento de volta a uma "mente colmeia". Estamos longe disso, mas otimistas de que podemos chegar lá!