Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na CES 2026, 老黄 przedstawił nową tezę: nowe wąskie gardło w centrach danych przeszło z "niewystarczającej mocy obliczeniowej" na "niewystarczający kontekst", stwierdzając, że "Kontekst jest nowym wąskim gardłem — przechowywanie musi być przeprojektowane."
1️⃣ Czym dokładnie jest ten kontekst?
Kontekst to bardzo kluczowa koncepcja w AI! Mówiąc najprościej:
Długość kontekstu to całkowita ilość wcześniejszego tekstu (lub historii rozmowy), którą model AI może "zobaczyć" i uwzględnić podczas przetwarzania twojego aktualnego pytania.
Możesz to sobie wyobrazić jako "krótkoterminową pamięć roboczą" modelu lub "liczbę stron referencyjnych".
Załóżmy, że masz nauczyciela o ograniczonej pamięci:
Krótka długość kontekstu (np. 4K tokenów): ten nauczyciel może zapamiętać tylko waszą rozmowę z ostatnich kilku minut. Jeśli nagle zapytasz go: "Co jeszcze napisał autor książki, o której rozmawialiśmy?", jeśli w jego "oknie pamięci" nie ma już tej części, nie będzie w stanie odpowiedzieć.
Długa długość kontekstu (np. 128K tokenów): ten nauczyciel może zapamiętać całą rozmowę z ostatnich kilku godzin, a nawet dni. Może łatwo przypomnieć sobie szczegóły wspomniane dawno temu i na ich podstawie przeprowadzić złożone rozumowanie i podsumowanie.
2️⃣ Technicznie, długość kontekstu jest zazwyczaj mierzona w "tokenach". Jeden token to około 0,75 angielskiego słowa lub jeden chiński znak.
🌟4K tokenów: około 3000 angielskich słów, lub krótki artykuł.
🌟128K tokenów: około 100 000 angielskich słów, co odpowiada długości średniej powieści.
🌟1M tokenów: około 750 000 angielskich słów, co odpowiada kilku długim powieściom.
3️⃣ Dlaczego to jest takie ważne?
Długość kontekstu bezpośrednio decyduje o złożoności i spójności zadań, które model może przetwarzać:
- Przetwarzanie długich dokumentów: aby podsumować, przeanalizować lub przetłumaczyć książkę liczącą setki stron, potrzebne jest bardzo długie okno kontekstowe.
- Złożone, wieloetapowe rozmowy: w obsłudze klienta, psychoterapii lub złożonej współpracy kreatywnej rozmowy mogą trwać dziesiątki, a nawet setki rund. Długi kontekst zapewnia, że model nie zapomina o początkowych założeniach i celach, utrzymując spójność i głębokość rozmowy.
- Zdolność do "znalezienia igły w stogu siana": to kluczowy test oceny efektywności modeli z długim kontekstem. Polega na celowym ukryciu faktu w tekście liczącym dziesiątki tysięcy słów, a potężny model z długim kontekstem potrafi dokładnie znaleźć odpowiedź.
- Zmniejszenie utraty informacji: w krótkim kontekście, gdy nowe informacje są wprowadzane, stare informacje są "wypychanie". To może prowadzić do zapomnienia przez model i sprzeczności. Długi kontekst znacznie łagodzi ten problem.
4️⃣ Co się stanie, gdy kontekst stanie się nowym wąskim gardłem, jakie rewolucje technologiczne i możliwości inwestycyjne to przyniesie?
Właściwie, patrząc na rynek w ostatnich dniach, jest to już bardzo oczywiste, niezależnie od tego, jak silne są akcje SanDisk $SDNK, Micron $MU, Samsung, SK. Nowe wąskie gardło technologiczne przyniesie również nowe możliwości.
To napędza rewolucję w architekturze pamięci i systemach pamięci (takich jak HBM, pamięć o wysokiej przepustowości, protokół CXL, platforma ICMS NVIDIA itp.).
5️⃣ Supercykl przechowywania może naprawdę nastać!
Ta zmiana logiki sprawiła, że pamięć i przechowywanie, które wcześniej były "drugoplanowe", stały się "głównymi bohaterami" cyklu infrastruktury AI.
Segment pamięci ($MU, Samsung, Hynix): nie jest już tylko cykliczną akcją podlegającą wahaniom związanym z telefonami/PC, ale stanowi "fundament rozszerzenia" systemów AI....
Najlepsze
Ranking
Ulubione
