Dwarkesh lagade med detta enligt mig: -RLVR-paradoxen: Labs spenderar miljarder på förbakning av specifika färdigheter som skapar en grundläggande spänning: om vi är nära människoliknande elever blir all denna förutbildning meningslös eftersom de skulle lära sig på jobbet. -Mänskligt arbets verkliga värde: Vi behöver inte skräddarsydda träningspipelines för varje mikrouppgift; nuvarande AI gör det. -Diffusionsfördröjning = cope: Om modeller vore mänskligt motsvarighet skulle de integreras snabbare än anställda [Kan debattera detta – dataproveniens, företagsförtroende för tillförlitlighet, rädsla för ersättning, etc. kan rimligen stoppa AI-implementeringen; men vi skulle ändå alla vara övertygade om att det är ett bättre alternativ och det stämmer inte än, så poängen kvarstår enligt mig]. -Målstolpsförskjutning har skett: Vi löste vad vi trodde var AGI-flaskhalsar (t.ex. resonemang) men kan ännu inte automatisera 95 % av kunskapsarbetet. Intelligens är mer än vi insåg och tidigare har definierat, och det är okej att erkänna. -Flaskhals för kontinuerligt lärande: Framtida AI-explosivitet beror på att lösa kontinuerligt lärande – agenter som utplaceras, lär sig av erfarenhet, och sammanfogar kunskap tillbaka till ett "kollektivt medvetande". Långt ifrån detta men optimistiskt att vi kan nå dit!