Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Kanał TG: https://t.co/GJr2Qy5lAb
Kolumna Futu: https://t.co/3VePAbXwhr
Jednym z powodów, dla których naprawdę nie chcę handlować kryptowalutami, jest to, że nie chcę, aby moje codzienne życie było związane z tymi niskimi symbolami, wulgarnymi plotkami i innymi bzdurami.
Mam nadzieję, że gdy inni zapytają mnie, co badam, będę mógł otwarcie powiedzieć, co oglądam.
Badania nad AI na giełdzie amerykańskiej, badania nad BSC w trzech kierunkach.
188
Na CES 2026, 老黄 przedstawił nową tezę: nowe wąskie gardło w centrach danych przeszło z "niewystarczającej mocy obliczeniowej" na "niewystarczający kontekst", stwierdzając, że "Kontekst jest nowym wąskim gardłem — przechowywanie musi być przeprojektowane."
1️⃣ Czym dokładnie jest ten kontekst?
Kontekst to bardzo kluczowa koncepcja w AI! Mówiąc najprościej:
Długość kontekstu to całkowita ilość wcześniejszego tekstu (lub historii rozmowy), którą model AI może "zobaczyć" i uwzględnić podczas przetwarzania twojego aktualnego pytania.
Możesz to sobie wyobrazić jako "krótkoterminową pamięć roboczą" modelu lub "liczbę stron referencyjnych".
Załóżmy, że masz nauczyciela o ograniczonej pamięci:
Krótka długość kontekstu (np. 4K tokenów): ten nauczyciel może zapamiętać tylko waszą rozmowę z ostatnich kilku minut. Jeśli nagle zapytasz go: "Co jeszcze napisał autor książki, o której rozmawialiśmy?", jeśli w jego "oknie pamięci" nie ma już tej części, nie będzie w stanie odpowiedzieć.
Długa długość kontekstu (np. 128K tokenów): ten nauczyciel może zapamiętać całą rozmowę z ostatnich kilku godzin, a nawet dni. Może łatwo przypomnieć sobie szczegóły wspomniane dawno temu i na ich podstawie przeprowadzić złożone rozumowanie i podsumowanie.
2️⃣ Technicznie, długość kontekstu jest zazwyczaj mierzona w "tokenach". Jeden token to około 0,75 angielskiego słowa lub jeden chiński znak.
🌟4K tokenów: około 3000 angielskich słów, lub krótki artykuł.
🌟128K tokenów: około 100 000 angielskich słów, co odpowiada długości średniej powieści.
🌟1M tokenów: około 750 000 angielskich słów, co odpowiada kilku długim powieściom.
3️⃣ Dlaczego to jest takie ważne?
Długość kontekstu bezpośrednio decyduje o złożoności i spójności zadań, które model może przetwarzać:
- Przetwarzanie długich dokumentów: aby podsumować, przeanalizować lub przetłumaczyć książkę liczącą setki stron, potrzebne jest bardzo długie okno kontekstowe.
- Złożone, wieloetapowe rozmowy: w obsłudze klienta, psychoterapii lub złożonej współpracy kreatywnej rozmowy mogą trwać dziesiątki, a nawet setki rund. Długi kontekst zapewnia, że model nie zapomina o początkowych założeniach i celach, utrzymując spójność i głębokość rozmowy.
- Zdolność do "znalezienia igły w stogu siana": to kluczowy test oceny efektywności modeli z długim kontekstem. Polega na celowym ukryciu faktu w tekście liczącym dziesiątki tysięcy słów, a potężny model z długim kontekstem potrafi dokładnie znaleźć odpowiedź.
- Zmniejszenie utraty informacji: w krótkim kontekście, gdy nowe informacje są wprowadzane, stare informacje są "wypychanie". To może prowadzić do zapomnienia przez model i sprzeczności. Długi kontekst znacznie łagodzi ten problem.
4️⃣ Co się stanie, gdy kontekst stanie się nowym wąskim gardłem, jakie rewolucje technologiczne i możliwości inwestycyjne to przyniesie?
Właściwie, patrząc na rynek w ostatnich dniach, jest to już bardzo oczywiste, niezależnie od tego, jak silne są akcje SanDisk $SDNK, Micron $MU, Samsung, SK. Nowe wąskie gardło technologiczne przyniesie również nowe możliwości.
To napędza rewolucję w architekturze pamięci i systemach pamięci (takich jak HBM, pamięć o wysokiej przepustowości, protokół CXL, platforma ICMS NVIDIA itp.).
5️⃣ Supercykl przechowywania może naprawdę nastać!
Ta zmiana logiki sprawiła, że pamięć i przechowywanie, które wcześniej były "drugoplanowe", stały się "głównymi bohaterami" cyklu infrastruktury AI.
Segment pamięci ($MU, Samsung, Hynix): nie jest już tylko cykliczną akcją podlegającą wahaniom związanym z telefonami/PC, ale stanowi "fundament rozszerzenia" systemów AI.
Wysokowydajne przechowywanie ($SNDK/WDC): logika SSD dla przedsiębiorstw przeszła z "wyścigu pojemności" na "wyścig przyspieszenia wniosków".
Sieci i DPU (sama NVIDIA): 老黄 połączył pamięć, przechowywanie i GPU za pomocą BlueField-4 i Spectrum-X, co oznacza, że NVIDIA nie tylko sprzedaje chipy, ale także definiuje zasady, **"jak dane przepływają wewnątrz maszyny"**.
19
Najlepsze
Ranking
Ulubione
