Na CES 2026, 老黄 przedstawił nową tezę: nowe wąskie gardło w centrach danych przeszło z "niewystarczającej mocy obliczeniowej" na "niewystarczający kontekst", stwierdzając, że "Kontekst jest nowym wąskim gardłem — przechowywanie musi być przeprojektowane." 1️⃣ Czym dokładnie jest ten kontekst? Kontekst to bardzo kluczowa koncepcja w AI! Mówiąc najprościej: Długość kontekstu to całkowita ilość wcześniejszego tekstu (lub historii rozmowy), którą model AI może "zobaczyć" i uwzględnić podczas przetwarzania twojego aktualnego pytania. Możesz to sobie wyobrazić jako "krótkoterminową pamięć roboczą" modelu lub "liczbę stron referencyjnych". Załóżmy, że masz nauczyciela o ograniczonej pamięci: Krótka długość kontekstu (np. 4K tokenów): ten nauczyciel może zapamiętać tylko waszą rozmowę z ostatnich kilku minut. Jeśli nagle zapytasz go: "Co jeszcze napisał autor książki, o której rozmawialiśmy?", jeśli w jego "oknie pamięci" nie ma już tej części, nie będzie w stanie odpowiedzieć. Długa długość kontekstu (np. 128K tokenów): ten nauczyciel może zapamiętać całą rozmowę z ostatnich kilku godzin, a nawet dni. Może łatwo przypomnieć sobie szczegóły wspomniane dawno temu i na ich podstawie przeprowadzić złożone rozumowanie i podsumowanie. 2️⃣ Technicznie, długość kontekstu jest zazwyczaj mierzona w "tokenach". Jeden token to około 0,75 angielskiego słowa lub jeden chiński znak. 🌟4K tokenów: około 3000 angielskich słów, lub krótki artykuł. 🌟128K tokenów: około 100 000 angielskich słów, co odpowiada długości średniej powieści. 🌟1M tokenów: około 750 000 angielskich słów, co odpowiada kilku długim powieściom. 3️⃣ Dlaczego to jest takie ważne? Długość kontekstu bezpośrednio decyduje o złożoności i spójności zadań, które model może przetwarzać: - Przetwarzanie długich dokumentów: aby podsumować, przeanalizować lub przetłumaczyć książkę liczącą setki stron, potrzebne jest bardzo długie okno kontekstowe. - Złożone, wieloetapowe rozmowy: w obsłudze klienta, psychoterapii lub złożonej współpracy kreatywnej rozmowy mogą trwać dziesiątki, a nawet setki rund. Długi kontekst zapewnia, że model nie zapomina o początkowych założeniach i celach, utrzymując spójność i głębokość rozmowy. - Zdolność do "znalezienia igły w stogu siana": to kluczowy test oceny efektywności modeli z długim kontekstem. Polega na celowym ukryciu faktu w tekście liczącym dziesiątki tysięcy słów, a potężny model z długim kontekstem potrafi dokładnie znaleźć odpowiedź. - Zmniejszenie utraty informacji: w krótkim kontekście, gdy nowe informacje są wprowadzane, stare informacje są "wypychanie". To może prowadzić do zapomnienia przez model i sprzeczności. Długi kontekst znacznie łagodzi ten problem. 4️⃣ Co się stanie, gdy kontekst stanie się nowym wąskim gardłem, jakie rewolucje technologiczne i możliwości inwestycyjne to przyniesie? Właściwie, patrząc na rynek w ostatnich dniach, jest to już bardzo oczywiste, niezależnie od tego, jak silne są akcje SanDisk $SDNK, Micron $MU, Samsung, SK. Nowe wąskie gardło technologiczne przyniesie również nowe możliwości. To napędza rewolucję w architekturze pamięci i systemach pamięci (takich jak HBM, pamięć o wysokiej przepustowości, protokół CXL, platforma ICMS NVIDIA itp.). 5️⃣ Supercykl przechowywania może naprawdę nastać! Ta zmiana logiki sprawiła, że pamięć i przechowywanie, które wcześniej były "drugoplanowe", stały się "głównymi bohaterami" cyklu infrastruktury AI. Segment pamięci ($MU, Samsung, Hynix): nie jest już tylko cykliczną akcją podlegającą wahaniom związanym z telefonami/PC, ale stanowi "fundament rozszerzenia" systemów AI....