Dwarkesh a gătit cu asta, după părerea mea: -Paradoxul RLVR: Laboratoarele cheltuiesc miliarde de dolari pre-coacerea unor abilități specifice, ceea ce creează o tensiune fundamentală: dacă suntem aproape de învățăcei asemănători oamenilor, toată această pregătire premergătoare devine inutilă, pentru că ar învăța la locul de muncă. -Valoarea reală a muncii umane: Nu avem nevoie de pipeline-uri de instruire personalizate pentru fiecare micro-sarcină; AI-ul actual o face. -Întârziere de difuzie = cope: Dacă modelele ar fi echivalente cu cele umane, s-ar integra mai repede decât angajații [Pot dezbate asta - proveniența datelor, încrederea afacerii în fiabilitate, temerile de înlocuire etc. pot bloca în mod rezonabil implementarea AI; dar, tot am fi convinși că este o opțiune mai bună și asta nu este încă adevărat, deci punctul rămâne valabil după părerea mea]. -A avut loc o schimbare a obiectivului: Am rezolvat ceea ce credeam că sunt blocaje AGI (de exemplu, raționament), dar încă nu putem automatiza 95% din munca de cunoaștere. Inteligența este mai mult decât ne-am dat seama și am definit anterior, iar asta e în regulă să recunoaștem. -Blocaj de învățare continuă: Explozivitatea AI viitoare depinde de rezolvarea învățării continue – agenți desfășurați, învățare din experiență, îmbinarea cunoștințelor înapoi într-o "minte colectivă". E departe de asta, dar suntem optimiști că putem ajunge acolo!