Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dwarkesh lagade med detta enligt mig:
-RLVR-paradoxen: Labs spenderar miljarder på förbakning av specifika färdigheter som skapar en grundläggande spänning: om vi är nära människoliknande elever blir all denna förutbildning meningslös eftersom de skulle lära sig på jobbet.
-Mänskligt arbets verkliga värde: Vi behöver inte skräddarsydda träningspipelines för varje mikrouppgift; nuvarande AI gör det.
-Diffusionsfördröjning = cope: Om modeller vore mänskligt motsvarighet skulle de integreras snabbare än anställda [Kan debattera detta – dataproveniens, företagsförtroende för tillförlitlighet, rädsla för ersättning, etc. kan rimligen stoppa AI-implementeringen; men vi skulle ändå alla vara övertygade om att det är ett bättre alternativ och det stämmer inte än, så poängen kvarstår enligt mig].
-Målstolpsförskjutning har skett: Vi löste vad vi trodde var AGI-flaskhalsar (t.ex. resonemang) men kan ännu inte automatisera 95 % av kunskapsarbetet. Intelligens är mer än vi insåg och tidigare har definierat, och det är okej att erkänna.
-Flaskhals för kontinuerligt lärande: Framtida AI-explosivitet beror på att lösa kontinuerligt lärande – agenter som utplaceras, lär sig av erfarenhet, och sammanfogar kunskap tillbaka till ett "kollektivt medvetande". Långt ifrån detta men optimistiskt att vi kan nå dit!
Topp
Rankning
Favoriter

