Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Philip Clark (@PJClark), partner i Thrive Capital (@ThriveCapital), trekker på investeringer i OpenAI, Cursor, Physical Intelligence og sin bakgrunn innen halvleder for å skissere 3 viktige punkter om utviklingen av KI:
1.) AIs gjennombrudd er ikke lineære. De kommer i arkitektoniske bølger, akkurat som silisium.
Philips halvlederanalogi omdefinerer AI-fremgangen som en sekvens av maskinvarelignende paradigmeskifter.
Når en vei når sin grense (enkeltkjerne → flerkjerne; fortrening → ettertrening), oppstår en ny arkitektur. AI utvikler seg ikke gjennom inkrementell justering.. Den utvikler seg gjennom strukturelle nytolkninger.
2.) Forsterkningslæring er den neste arkitektoniske æraen (foreløpig)
Philip rammer inn forsterkningslæring som etterfølgeren etter trening: et nytt fundament, ikke en optimalisering. Men avgjørende understreker han at det ikke vil bli den siste.
Akkurat som maskinvaren stadig hoppet fra enkeltkjerne til flerkjerne til GPU-er, vil AI oppleve flere paradigmebølger, hvor hver åpner nye ytelsestak. Forsterkningslæring er rett og slett neste bølge, ikke den siste.
3.) OpenAIs vollgrav er ikke modellene.. Det er dens evne til å fortsette å oppdage det neste paradigmet.
Philip hevder at kjernefordelen ligger oppstrøms i produktet: hvert stort arkitektonisk gjennombrudd i store modeller har sitt opphav fra OpenAI.
Deres forsvarsevne kommer av å gjentatte ganger finne opp «det neste» samtidig som de operasjonaliserer det forrige.. en sjelden kombinasjon i enhver bransje, for ikke å snakke om en som er preget av diskontinuerlige hopp.
. . .
Molly: "En av sponsorene som stolt sponser Sourcery er @turingcom, og derfor har jeg fått innsikt i AI-forskningssiden – en AI-forskningsakselerator [vi har intervjuet administrerende direktør, @jonsidd]. De hjelper til med modellene. Og akkurat nå legger de merke til et kraftig skifte det siste kvartalet eller to fra imitasjonsdata og syntetiske data til forsterkende læring.
Så jeg er nysgjerrig på hvordan du ser det på den tekniske siden, og også på applikasjonssiden?"
Philip: "Jeg tror AI er litt som halvledere på en måte—hvis jeg får lov til å gå tilbake til halvledere, det store referansepunktet. I den forstand at det er mange, mange bølger mens vi prøver å få bedre og bedre ytelse.
Du vet, med halvledere pleide vi å ha enkeltkjerne-halvledere. Da klarte vi egentlig ikke å presse ut noe mer av én kjerne, så vi gikk over til flerkjerne. Og så gikk vi over til GPU-er. Og jeg tror vi ser noe veldig likt med AI, nemlig at vi startet med forhåndstrening tilbake i GPT-1, GPT-2, GPT-3-æraen. Det førte oss til GPT-4.
Deretter begynte vi å bruke mange post-treningsteknikker for ChatGPT—overvåket finjustering, forsterkningslæring med menneskelig tilbakemelding. Dette var det som gjorde modellene mindre utenomjordiske intelligenser og mer hjelpsomme assistenter. Og nå, ettersom mye av det lavthengende frukten fra disse gevinstene er presset ut (selv om det sannsynligvis fortsatt er mye mer å gjøre), har forsterkningslæring vært det neste store paradigmeskiftet innen AI og hvor mange av ressursene går....
Topp
Rangering
Favoritter

