Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
På CES 2026 presenterte Lao Huang et nytt perspektiv: presset fra den nye flaskehalsen i datasenteret har endret seg fra «utilstrekkelig datakraft» til «utilstrekkelig kontekst», og foreslo at «kontekst er den nye flaskehalsen — lagring må omstruktureres.»
1️⃣ Så hva refererer egentlig Kontekst til her?
Kontekst er et veldig grunnleggende AI-konsept! Med de mest populære ordene:
Kontekstlengde er den totale mengden tidligere tekst (eller samtalehistorikk) som AI-modellen kan «se» og vurdere når den håndterer ditt nåværende problem.
Du kan tenke på det som modellens «korttidsarbeidsminne» eller «oppslagsboksider».
La oss si at du har en lærer med begrenset hukommelse:
Kort kontekstlengde (f.eks. 4K-tokens): Denne læreren kan bare huske de siste minuttene av samtalen. Hvis du plutselig spør ham: «Hva annet gjorde forfatteren av boken vi nettopp diskuterte?» Hvis denne delen av hans "minnevindu" ikke lenger er der, kan han ikke svare.
Lang kontekstlengde (f.eks. 128K tokens): Denne læreren husker hele samtalen din fra de siste timene eller til og med dagene. Han kan lett gjennomgå detaljene som ble nevnt for lenge siden og lage komplekse resonnementer og oppsummeringer basert på dem.
2️⃣Teknisk sett måles kontekstlengde vanligvis i "tokens". En token tilsvarer omtrent 0,75 engelske ord eller ett kinesisk tegn.
🌟4K-tokens: omtrent 3000 engelske ord, eller en kort artikkel.
🌟128 000 tokens: Omtrent 100 000 engelske ord, som tilsvarer lengden på en roman.
🌟1 million tokens: Omtrent 750 000 engelske ord, tilsvarende flere episke bøker.
3️⃣Hvorfor er det så viktig?
Lengden på konteksten bestemmer direkte kompleksiteten og sammenhengen i oppgavene modellen kan håndtere:
-Lang dokumentbehandling: For å oppsummere, analysere eller oversette en bok på hundrevis av sider, kreves et ekstra langt kontekstvindu.
-Komplekse samtaler med flere runder: I kundeservice, psykologisk rådgivning eller komplekse kreative samarbeid kan samtaler vare i dusinvis eller til og med hundrevis av runder. Lange kontekster sikrer at modellen ikke glemmer de opprinnelige innstillingene og målene, og opprettholder konsistens og dybde i dialogen.
- "Nål i høystakk"-funksjon: Dette er en nøkkeltest for å måle effektiviteten til langkontekstmodeller. Det vil si at et faktum bevisst er begravd i titusenvis av tekstord, og en kraftig modell med lang kontekst kan nøyaktig finne svaret.
- Redusert informasjonstap: I korte sammenhenger blir gammel informasjon "presset ut" når ny informasjon legges inn. Dette fører til modellamnesi, inkonsistens. Den lange konteksten lindrer dette problemet betydelig.
4️⃣ Så når konteksten blir en ny flaskehals, hva slags teknologisk revolusjon og investeringsmuligheter vil det bringe?
Faktisk, når man ser på markedet de siste dagene, har det vært veldig åpenbart om det er sterke SanDisk $SDNK, Micron, $MU Samsung og SK. Nye teknologiske flaskehalser vil også bringe nye muligheter.
Dette har drevet en revolusjon innen lagringsarkitekturer og minnesubsystemer (som HBM høybåndbreddeminne, CXL-protokollen, NVIDIAs ICMS-plattform, osv.).
5️⃣ Lagringssupersyklusen kan virkelig komme!
Denne bølgen av logiske endringer har gjort det mulig for minne og lagring, som opprinnelig tilhørte «støtterollene», å få «protagonist»-skriptet i AI-infrastruktursyklusen....
Topp
Rangering
Favoritter
