Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Utover fortrening, her er hvordan jeg ser for meg at det meste av læring vil fungere.
1. AI-modeller/systemer vil opprettholde store samlinger av gjenfinnbar kunnskap. Dette vil inkludere fakta som "hovedstaden i California er Sacramento" og taktikker som "når du spiller Monopol, kjøp en haug med eiendommer tidlig" eller "sørg for at standardargumenter i Python ikke er foranderlige". Systemet vil hente relevante fakta/innsikter/taktikker for å utføre oppgaver.
2. AI vil ta inn alle typer data (bøker, kodebaser, nyhetsartikler, streaming av sensoriske input). Dette vil skje på treningstidspunktet så vel som mens du er utplassert for å utføre oppgaver.
3. Når systemet møter nye data, vil det resonnere sterkt for å forstå dataene, spesielt for å forstå dataene i sammenheng med systemets eksisterende kunnskap. Hvis dataene er vanskelige å forstå, for eksempel en teknisk forskningsartikkel, vil denne prosessen være svært beregningsintensiv, og resultatet av resonnementet vil bli destillert til et nytt sett med innsikt, taktikker og fakta som er lagret i systemets kunnskap (sammen med referanser til rådataene som innsikten ble avledet fra). Hvis den nye kunnskapen motsier eksisterende innhentede fakta, vil det oppstå flere resonnementer for å forsøke å løse motsigelsen, og eksisterende fakta i kunnskapssamlingen vil bli oppdatert (sammen med kontekst om årsaken til oppdateringen).
Dette har noen fine egenskaper.
- En måte å fjerne eller fikse feil kunnskap etter hvert som AI samler inn ny informasjon.
- Noe tolkningsbarhet om hva modellen vet og dens strategier for å utføre oppgaver. Også muligheten til å revidere / sjekke hva modellen vet.
- En måte å dra nytte av å trene tidsresonnement i motsetning til bare å resonnere på slutningstidspunktet og deretter forkaste hardt opptjent innsikt.
- Denne typen resonnement om treningstid har potensial til å være mye mer dataeffektivt, men langt mer dataintensivt.
Denne prosessen med å trene tidsresonnement, kunnskapslagring og gjenfinning kan være fremvoksende gitt riktig arkitektur, men jeg forventer at den blir bakt inn i utgangspunktet.
Topp
Rangering
Favoritter