Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

rick awsb ($people, $people)
Blind lezen, willekeurige uitleg, wat te kopen en wat te verliezen, macro-basisschoolleerlingen, politieke en economische commentatoren, verliezen zich langzaam in AI, crypto-houder, defi-boer, geen financieel advies niet-investeringsadvies
Vanaf september is de opslag per hoofd opgeslagen, na de grote stijging in januari is opnieuw bevestigd dat de opslag nog steeds ondergewaardeerd is
De eerste persoon die de opslag van Zhongchui aanbeveelt, is zonder twijfel deze
Het doel is duidelijk, de logica is helder
"Bijna alle mainstream AGI-routes 'impliceren' een opslagexplosie"
De verbetering van de capaciteiten van alle instellingen/individuen vereist een verbetering van het geheugen
Dit is de hardste logica van opslag.



ariel reyez romero9 jan, 14:03
De tweet over Micron eind september heeft sindsdien de mu-aandelenprijs meer dan verdubbeld.
Is het nu nog steeds ondergewaardeerd?
Het is zeer waarschijnlijk nog steeds ondergewaardeerd, en zelfs ernstig ondergewaardeerd.
De reden is dat,
ongeacht welke AGI-route bekend is, "opslag" een harde beperking zal worden die superlineaire of zelfs exponentiële groei in fasen met zich meebrengt.
1) Bijna alle mainstream AGI-routes impliceren een explosie in opslag.
De momenteel bekende paden omvatten:
Grote wereldmodellen (World Models)
LLM + multimodale basismodellen
Lichaamsintelligentie (Embodied AI)
Multimodale samenwerking / multi-agent systemen
Langetermijngeheugen + planning + reflectiesystemen
Ze zullen allemaal leiden tot een superlineaire groei in opslagbehoefte, en tegelijkertijd de drie soorten opslag verhogen:
Parameteropslag (modelgewichten, checkpoints)
Tussenstatus / wereldstatusopslag (tijdelijke status, afleidingsprocessen)
Langetermijnervaring / geheugenopslag (externe geheugenbanken, trajecten, kennis en ervaring)
2) Waarom "wereldmodellen" van nature opslagverbruikers zijn.
(a) Wereldmodellen zijn geen "invoer → uitvoer", maar een "herhaalbaar universum".
Wat wereldmodellen moeten doen is: Gegeven wereldstatus → Toekomst afleiden → Terugrollen → Vergelijken → Opnieuw afleiden. Daarom moet het opslaan:
Wereldstatus (S_t)
Statusovergangsrelaties (P(S_{t+1}|S_t, A_t))
Meervoudige takhypotheses (counterfactuals)
Sequenties over lange tijdsperioden (lange horizon)
Belangrijk punt: dit is geen lineaire keten, maar een boomstructuur met vertakkingen — opslaggroei zal worden: lineaire tijd × vertakkingsfactor → in de praktijk blijkt dit superlineair te zijn.
(b) Zodra het model begint te "generalizeren", zal de opslagbehoefte een sprongetje maken.
In de fase van lage precisie kan het nog goed worden gecomprimeerd; maar wanneer het model dichter bij "werkelijk begrip van de wereld" komt:
Regels kunnen worden gecomprimeerd,
Maar lange staarten, uitzonderingen, randgevallen en complexe oorzaken zijn niet te comprimeren.
Dus er zal een misvatting ontstaan dat "hoe slimmer, hoe minder opslag nodig" — de realiteit is meer als: hoe slimmer → hoe meer langdurig oncompressibele uitzonderingen en ervaringen moeten worden bewaard.
3) LLM + multimodaal: opslag is niet minder, maar "verplaatst" en groter.
Veel mensen denken dat LLM alleen grote parameters en weinig status heeft, maar de trend verandert naar:
(a) Van "parameters zijn kennis" naar "parameters + extern geheugen".
Lange context, RAG, Memory Bank, Episodisch Geheugen, enz., verplaatsen kennis uit gewichten naar oproepbaar extern geheugen. Dit is meestal "verplaatsen", niet "verminderen van de totale hoeveelheid".
(b) Multimodaal verhoogt de datadichtheid van "elke ervaring" aanzienlijk.
Ervaring is niet langer een zin, maar kan zijn: video + audio + actie + omgevingsstatus. Hoe meer modaliteiten, hoe groter de effectieve informatiehoeveelheid van één monster, en hoe groter de opslagdruk.
4) Lichaamsintelligentie: opslagdruk is nog extremer.
Lichaamsintelligentie is afhankelijk van:
Grote stromen van sensoren (visueel/tactiel/IMU, enz.)
Tijdsgelijnde multimodale trajecten.
Volledige registratie van succesvolle/mislukte episodes.
Vergelijking:
De basis monster eenheid van LLM is token.
Wereldmodellen zijn trajecten.
Robotica is traject × continue signalen.
En het belangrijke feit is: zeldzame mislukkingen en veiligheid gerelateerde ervaringen zijn bijzonder waardevol en kunnen vaak niet gemakkelijk worden weggegooid, wat de hoeveelheid "moet behouden" opslag verder verhoogt.
5) Multi-agent / samenwerkende systemen: er kan gemakkelijk een "kwadrateffect" of zelfs exponentiële illusie optreden.
Als er N agenten zijn, en elke agent heeft M ervaringen:
Slechts elk afzonderlijk opslaan: ongeveer (N×M).
Maar zodra er gedeeld, afgestemd of wederzijds gemodelleerd moet worden (voorspellen "hoe een andere agent denkt"), zal de opslag zich uitbreiden naar de relationele ruimte, mogelijk dicht bij (O(N^2×M)).
Vooral in sociale/spel/economische simulatie taken zal multi-agent + wereldmodellen de opslagbehoefte aanzienlijk vergroten.
6) Zijn er AGI-routes die de opslagexplosie kunnen omzeilen?
Onze conclusie is: momenteel is er geen enkele serieus overwogen AGI-route die echt de opslaggrootteproblemen kan omzeilen. Er kunnen slechts drie soorten "uitstel/verplaatsing" worden gedaan:
Radicale compressie (maar vaak ten koste van generalisatie).
Frequentere vergetelheid (ten koste van langdurige consistentie).
Opslag uitbesteden aan omgeving/gereedschappen/netwerken (in wezen een verplaatsing, niet een vernietiging).
7) Samenvatting: zal de aanbodzijde op lange termijn de vraag niet kunnen bijbenen?
De beoordeling is als volgt:
"Intelligentieniveau" wordt steeds meer afhankelijk van de schaal van oproepbaar effectief geheugen (niet alleen rekenkracht).
Opslaguitbreiding wordt beperkt door materialen, productie, betrouwbaarheid, energieverbruik, kosten en andere realistische factoren.
Daarom zal AI in de voorspelbare toekomst waarschijnlijk een langdurige vraag naar effectief geheugen hebben die de opslagcapaciteit op lange termijn overtreft.
Bijbehorende conclusies zijn onder andere:
De mogelijkheid om volledige wereldmodellen/grote geheugensystemen te draaien is schaarser en meer gecentraliseerd.
Industriebeperkingen kunnen van "rekenkracht" verder verschuiven naar "opslagsystemen" (hiërarchie, oproepbaarheid, langdurige consistentie).
Daarom,
Of het nu gaat om wereldmodellen, lichaamsintelligentie of multimodaal + agent, de sleutelbeperkingen van AGI verschuiven geleidelijk van "rekenkracht" naar "uitbreidbare, oproepbare, langdurig consistente opslagsystemen"; deze opslagbehoefte vertoont structureel een superlineaire groei en kan in bepaalde fasen optreden als een bijna exponentiële druk.
nfa dyor
3
In 2026 is de scaling law niet alleen niet tegen een muur gelopen, maar is deze zelfs versneld. Voorheen was het alleen de scaling van pre-training, nu is daar ook inferentie en agent bijgekomen.
Deze vormen allemaal een gezamenlijke bottleneck, die wijzen op opslag.
Niet alleen de capaciteit, maar ook de bandbreedte en snelheid.
Het bedrijf dat het dichtst bij of in staat is om de limiet te doorbreken, is de volgende die tien keer, of zelfs honderd keer kan groeien.
Dit is de reden waarom de opslagsector op de Amerikaanse aandelenmarkt tot nu toe zo explosief is gestegen.
En het is mogelijk dat dit nog lang niet voorbij is.

rick awsb ($people, $people)26 jan, 02:28
Als ik het AI-jaar 26 met één trefwoord zou moeten beschrijven, denk ik dat het "terugkerende zelf-iteratie" is.
Voor eindgebruikers is het zelfverbeterende aspect van clawdbot de meest beeldende interpretatie van dit woord.
81
Boven
Positie
Favorieten