Dwarkesh gotował z tym imo: -RLVR paradoks: Laboratoria wydają miliardy na wstępne przygotowanie konkretnych umiejętności, co ujawnia fundamentalne napięcie: jeśli jesteśmy blisko ludzkich uczniów, to całe to wstępne szkolenie jest bezsensowne, ponieważ uczyliby się w trakcie pracy. -Prawdziwa wartość pracy ludzkiej: Nie potrzebujemy niestandardowych procesów szkoleniowych dla każdego mikro-zadania; obecna AI to robi. -Opoźnienie dyfuzji = radzenie sobie: Gdyby modele były równoważne ludziom, integrowałyby się szybciej niż pracownicy [Można to poddać dyskusji - pochodzenie danych, zaufanie biznesowe do niezawodności, obawy przed zastąpieniem itp. mogą rozsądnie opóźnić wdrożenie AI; ale wciąż wszyscy bylibyśmy przekonani, że to lepsza opcja, a to jeszcze nieprawda, więc moim zdaniem punkt pozostaje aktualny]. -Przesunięcie celów miało miejsce: Rozwiązaliśmy to, co myśleliśmy, że są wąskimi gardłami AGI (np. rozumowanie), a mimo to nie możemy jeszcze zautomatyzować 95% pracy opartej na wiedzy. Inteligencja jest większa, niż zdawaliśmy sobie sprawę i wcześniej definiowaliśmy, i to w porządku przyznać. -Wąskie gardło uczenia się ciągłego: Przyszła eksplozja AI zależy od rozwiązania problemu uczenia się ciągłego - agenci wdrożeni, uczący się z doświadczenia, łączący wiedzę z powrotem do "umysłu hives". Daleko od tego, ale optymistycznie wierzymy, że możemy tam dotrzeć!