Na veletrhu CES 2026 Lao Huang představil nový pohled: tlak nového úzkého místa datového centra se změnil z "nedostatečného výpočetního výkonu" na "nedostatečný kontext" a navrhl, že "Kontext je novým úzkým hrdlem — úložiště musí být přepracováno." 1️⃣ Tak na co přesně se zde odkazuje Context? Kontext je velmi základní koncept AI! Nejpopulárnějšími slovy: Délka kontextu je celkové množství předchozího textu (nebo historie konverzace), které AI model může "vidět" a zohlednit při řešení vašeho aktuálního problému. Můžete si to představit jako "krátkodobou pracovní paměť" modelu nebo "stránky referenční knihy". Řekněme, že máte učitele s omezenou pamětí: Krátká délka kontextu (např. 4K tokeny): Tento učitel si pamatuje jen poslední minuty vašeho rozhovoru. Když se ho najednou zeptáte: "Co dalšího autor knihy, o které jsme právě mluvili?" Pokud tato část jeho "paměťového okna" už neexistuje, nemůže odpovědět. Dlouhá délka kontextu (např. 128 tisíc tokenů): Tento učitel si pamatuje celý váš rozhovor z posledních hodin nebo dokonce dnů. Snadno si projde detaily zmíněné už dávno a na jejich základě si udělá složité argumenty a shrnutí. 2️⃣Technicky se délka kontextu obvykle měří v "tokenech". Žeton je přibližně roven 0,75 anglickému slovu nebo jednomu čínskému znaku. 🌟4K tokeny: asi 3000 anglických slov nebo krátký článek. 🌟128K tokenů: Asi 100 000 anglických slov, což odpovídá délce románu. 🌟1M tokenů: Přibližně 750 000 anglických slov, což odpovídá několika epickým knihám. 3️⃣Proč je to tak důležité? Délka kontextu přímo určuje složitost a soudržnost úkolů, které model zvládne: -Dlouhé zpracování dokumentů: Pro shrnutí, analýzu nebo překlad knihy o stovkách stran je potřeba extra dlouhé kontextové okno. -Složité vícekolové rozhovory: V zákaznickém servisu, psychologickém poradenství nebo složitých kreativních spolupracích mohou konverzace trvat desítky či dokonce stovky kol. Dlouhé kontexty zajišťují, že model nezapomene na počáteční nastavení a cíle, čímž udržuje konzistenci a hloubku dialogu. - Schopnost "Jehla v kupce sena": Toto je klíčový test pro měření efektivity modelů s dlouhým kontextem. To znamená, že fakt je záměrně ukryt v desítkách tisíc slov textu a silný model s dlouhým kontextem dokáže přesně najít odpověď. - Snížená ztráta informací: V krátkých kontextech jsou staré informace "vytlačeny" při zadání nových informací. To vede k modelové amnézii, nekonzistenci. Dlouhý kontext tento problém výrazně zmírňuje. 4️⃣ Až se kontext stane novým úzkým hrdlem, jakou technologickou revoluci a investiční příležitosti to přinese? Ve skutečnosti bylo při pohledu na trh v posledních dnech velmi zřejmé, ať už jde o silné SanDisk $SDNK, Micron, $MU Samsung nebo SK. Nové technologické úzká místa přinesou také nové příležitosti. To vedlo k revoluci v architekturách úložišť a paměťových subsystémech (například paměť HBM s vysokou šířkou pásma, protokol CXL, platforma ICMS od NVIDIA atd.). 5️⃣ Skladovací supercyklus může opravdu přijít! Tato vlna logických změn umožnila paměti a úložišti, které původně patřily k "podpůrným rolím", získat skript "protagonisty" v cyklu infrastruktury AI....