Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Å skape forutsetninger for maksimalt indre ønske om å tilegne seg ny kunnskap kontinuerlig ... Man må kontraintuitivt minimere volumet av a-priori "kunnskap" for at sinnet skal være fritt for konvensjoner.
Jeg tror dette er sant med hver fiber i mitt vesen.
Av denne grunn tror jeg at 100 % av AI-modellene som brukes i dag er bakvendte i sin grunnleggende tilnærming til å destillere informasjon som mennesker deretter utleder fra dem.
For modeller trent på billioner av menneskemerkede (partiske) og RLHF'd (en vederstyggelighet) data: Det er ingen resonnement. Det er ingen intelligens. Det er rett og slett oppgulp og hallusinasjoner forkledd som kunnskap.
Når det er sagt, er verktøyene som er tilgjengelige i dag dypt virkningsfulle og akselererer tydelig digital fremgang på dyptgripende måter.
Men som @amasad sa på en nylig podcast, kan vi ikke bli for distrahert av den industrielle spenningen ved dagens metoder.
Ekte RL har ennå ikke blitt prøvd. Vi må ikke gi opp. Vi må erkjenne at det trengs så mye mer utforskning ... på nivå med programvarearkitekturer (ja, transformatoralternativer og langt utover), maskinvaresubstrater (analoge, memristorer, etc), datarepresentasjoner (nye høyere dimensjoner av 4D + tensorer) og mye mer!
Topp
Rangering
Favoritter

