Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
På CES 2026 presenterade Lao Huang ett nytt perspektiv: trycket från den nya flaskhalsen i datacentret har förändrats från "otillräcklig beräkning" till "otillräcklig kontext", och föreslog att "Kontexten är den nya flaskhalsen — lagringen måste omstruktureras."
1️⃣ Så vad syftar egentligen Context på här?
Kontexten är ett mycket centralt AI-koncept! Med de mest populära orden:
Kontextlängd är den totala mängden tidigare text (eller konversationshistorik) som AI-modellen kan "se" och ta hänsyn till när den hanterar ditt nuvarande problem.
Du kan tänka på det som en modells "korttidsarbetsminne" eller "referensboksidor."
Låt oss säga att du har en lärare med begränsat minne:
Kort kontextlängd (t.ex. 4K-tokens): Denna lärare kan bara minnas dina sista minuter av samtalet. Om du plötsligt frågar honom: "Vad mer gjorde författaren till boken vi just diskuterade?" Om denna del av hans "minnesfönster" inte längre finns där, kan han inte svara.
Lång kontextlängd (t.ex. 128K-tokens): Den här läraren minns hela ditt samtal från de senaste timmarna eller till och med dagarna. Han kan enkelt granska detaljerna som nämnts för länge sedan och göra komplexa resonemang och sammanfattningar baserat på dem.
2️⃣Tekniskt mäts kontextlängd vanligtvis i "tokens". En token motsvarar ungefär 0,75 engelska ord eller ett kinesiskt tecken.
🌟4K-tokens: ungefär 3000 engelska ord, eller en kort artikel.
🌟128 000 tokens: Cirka 100 000 engelska ord, vilket motsvarar längden på en roman.
🌟1 miljoner tokens: Cirka 750 000 engelska ord, motsvarande flera episka böcker.
3️⃣Varför är det så viktigt?
Kontextens längd avgör direkt komplexiteten och koherensen hos de uppgifter som modellen kan hantera:
-Lång dokumenthantering: För att sammanfatta, analysera eller översätta en bok på hundratals sidor krävs ett extra långt kontextfönster.
-Komplexa samtal med flera omgångar: Inom kundservice, psykologisk rådgivning eller komplexa kreativa samarbeten kan samtal pågå i dussintals eller till och med hundratals omgångar. Långa kontexter säkerställer att modellen inte glömmer de ursprungliga inställningarna och målen, vilket bibehåller konsekvens och djup i dialogen.
- "Nål i höstack"-förmåga: Detta är ett nyckeltest för att mäta effektiviteten hos långkontextmodeller. Det vill säga, ett faktum är medvetet begravt i tiotusentals ord text, och en kraftfull modell med lång kontext kan hitta svaret på ett korrekt sätt.
- Minskad informationsförlust: I korta sammanhang "pressas gammal information ut" när ny information matas in. Detta leder till modellamnesi, inkonsekvens. Den långa kontexten lindrar detta problem avsevärt.
4️⃣ Så när kontexten blir en ny flaskhals, vilken typ av teknologisk revolution och investeringsmöjligheter kommer det att medföra?
Faktum är att när man tittar på marknaden de senaste dagarna har det varit mycket uppenbart, om det är starka SanDisk $SDNK, Micron, $MU Samsung eller SK. Nya teknologiska flaskhalsar kommer också att ge nya möjligheter.
Detta har drivit en revolution inom lagringsarkitekturer och minnesdelsystem (såsom HBM högbandbreddsminne, CXL-protokollet, NVIDIAs ICMS-plattform, etc.).
5️⃣ Lagringssupercykeln kan verkligen komma!
Denna våg av logiska förändringar har gjort det möjligt för minne och lagring, som ursprungligen tillhörde "stödrollerna", att få "protagonist"-skriptet för AI-infrastrukturcykeln....
Topp
Rankning
Favoriter
