Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ik ben net in een konijnenhol gevallen over iets dat de "Platonische Representatie Hypothese" wordt genoemd en het maakt me helemaal gek.
In wezen, naarmate AI-modellen groter en capabeler worden, beginnen hun interne representaties te convergeren. Visie-modellen, taalmodellen, verschillende architecturen. Ze benaderen langzaam allemaal hetzelfde onderliggende model van de werkelijkheid.
Als dit klopt, is het een enorme doorbraak. We zouden tussen modellen kunnen vertalen in plaats van elk model als een afgesloten zwart gat te behandelen, interpretatievoordelen over systemen heen te hergebruiken, en misschien modellen op representatieniveau te aligneren, niet alleen door de uitkomsten te controleren.
De gekkere implicatie is filosofisch. Misschien is BETEKENIS niet alleen een menselijke conventie. Misschien zijn er natuurlijke coördinaten in de werkelijkheid en blijven voldoende sterke leraren ze herontdekken.
Dus wat drijft de convergentie eigenlijk? De data, het doel, een of andere diepe eenvoud bias? En waar breekt het?

Boven
Positie
Favorieten
