Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jag har precis ramlat ner i ett kaninhål på något som kallas "Platonic Representation Hypothesis" och det rör till det i mitt huvud.
I princip, när AI-modeller blir större och mer kapabla, börjar deras interna representationer att konvergera. Visionsmodeller, språkmodeller, olika arkitekturer. De närmar sig alla långsamt samma underliggande verklighetsmodell.
Om detta håller är det en stor upplåsning. Vi skulle kunna översätta mellan modeller istället för att behandla varje modell som en förseglad svart låda, återanvända tolkningsvinster över system, och kanske justera modeller på representationsnivå, inte bara genom att övervaka utdata.
Den galnare implikationen är filosofisk. Kanske är MENING inte bara en mänsklig konvention. Kanske finns det naturliga koordinater i verkligheten och tillräckligt starka elever återupptäcker dem hela tiden.
Så vad driver egentligen konvergensen? Datan, objektivet, någon djup enkelhetsbias? Och var går den sönder?

Topp
Rankning
Favoriter
