Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dwarkesh gotował z tym imo:
-RLVR paradoks: Laboratoria wydają miliardy na wstępne przygotowanie konkretnych umiejętności, co ujawnia fundamentalne napięcie: jeśli jesteśmy blisko ludzkich uczniów, to całe to wstępne szkolenie jest bezsensowne, ponieważ uczyliby się w trakcie pracy.
-Prawdziwa wartość pracy ludzkiej: Nie potrzebujemy niestandardowych procesów szkoleniowych dla każdego mikro-zadania; obecna AI to robi.
-Opoźnienie dyfuzji = radzenie sobie: Gdyby modele były równoważne ludziom, integrowałyby się szybciej niż pracownicy [Można to poddać dyskusji - pochodzenie danych, zaufanie biznesowe do niezawodności, obawy przed zastąpieniem itp. mogą rozsądnie opóźnić wdrożenie AI; ale wciąż wszyscy bylibyśmy przekonani, że to lepsza opcja, a to jeszcze nieprawda, więc moim zdaniem punkt pozostaje aktualny].
-Przesunięcie celów miało miejsce: Rozwiązaliśmy to, co myśleliśmy, że są wąskimi gardłami AGI (np. rozumowanie), a mimo to nie możemy jeszcze zautomatyzować 95% pracy opartej na wiedzy. Inteligencja jest większa, niż zdawaliśmy sobie sprawę i wcześniej definiowaliśmy, i to w porządku przyznać.
-Wąskie gardło uczenia się ciągłego: Przyszła eksplozja AI zależy od rozwiązania problemu uczenia się ciągłego - agenci wdrożeni, uczący się z doświadczenia, łączący wiedzę z powrotem do "umysłu hives". Daleko od tego, ale optymistycznie wierzymy, że możemy tam dotrzeć!
Najlepsze
Ranking
Ulubione

