Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Canalul TG: https://t.co/GJr2Qy5lAb
Coloana Futu: https://t.co/3VePAbXwhr
E adevărat
Unul dintre motivele pentru care nu vreau să speculez este că nu vreau ca viața mea de zi cu zi să fie învăluită în simboluri cu explozii scăzute și știri vulgare, de culoare piersică.
Sper ca atunci când oamenii mă întreabă ce cercetez, să pot spune deschis ce văd.
Piața de capital din SUA cercetează inteligența artificială, iar BSC cercetează trei căi
187
La CES 2026, Lao Huang a propus o nouă perspectivă: presiunea noului blocaj al centrului de date s-a schimbat de la "calcul insuficient" la "context insuficient" și a propus că "Contextul este noul blocaj — stocarea trebuie rearhitecturată."
1️⃣ Deci la ce se referă exact Context aici?
Contextul este un concept de bază al AI-ului! În cele mai populare cuvinte:
Lungimea contextului este cantitatea totală de text anterior (sau istoric al conversațiilor) pe care modelul AI o poate "vedea" și lua în considerare atunci când se ocupă de problema ta actuală.
Poți să te gândești la asta ca la "memoria de lucru pe termen scurt" a unui model sau la "paginile de carte de referință".
Să presupunem că ai un profesor cu memorie limitată:
Context scurt (de exemplu, jetoane 4K): Acest profesor își poate aminti doar ultimele câteva minute ale conversației. Dacă îl întrebi brusc: "Ce altceva a mai spus autorul cărții despre care tocmai am discutat?" Dacă această parte a "ferestrei memoriei" nu mai există, nu poate răspunde.
Context lung (de exemplu, 128K jetoane): Acest profesor își amintește întreaga conversație din ultimele ore sau chiar zilele trecute. Poate revizui cu ușurință detaliile menționate cu mult timp în urmă și poate face raționamente și rezumate complexe pe baza lor.
2️⃣Tehnic, lungimea contextului este de obicei măsurată în "jetoane". Un jeton este aproximativ egal cu 0,75 cuvinte în engleză sau un caracter chinezesc.
🌟Jetoane 4K: aproximativ 3000 de cuvinte în engleză sau un articol scurt.
🌟128K jetoane: Aproximativ 100.000 de cuvinte în engleză, echivalent cu lungimea unui roman.
🌟1M tokens: Aproximativ 750.000 de cuvinte în engleză, echivalentul mai multor cărți epice.
3️⃣De ce este atât de important?
Lungimea contextului determină direct complexitatea și coerența sarcinilor pe care modelul le poate gestiona:
-Procesarea documentelor lungi: Pentru a rezuma, analiza sau traduce o carte de sute de pagini, este nevoie de o fereastră de context extra-lungă.
-Conversații complexe cu mai multe runde: În servicii pentru clienți, consiliere psihologică sau colaborări creative complexe, conversațiile pot dura zeci sau chiar sute de runde. Contextele lungi asigură că modelul nu uită setările și obiectivele inițiale, menținând consistența și profunzimea dialogului.
- Capacitatea "Acul în carul cu fân": Acesta este un test cheie pentru măsurarea eficacității modelelor cu context lung. Adică, un fapt este îngropat deliberat în zeci de mii de cuvinte de text, iar un model puternic pe context lung poate găsi răspunsul cu acuratețe.
- Pierdere redusă de informații: În contexte scurte, informația veche este "stoarsă" atunci când sunt introduse informații noi. Acest lucru duce la amnezie la modele, inconsistență. Contextul pe termen lung ameliorează mult această problemă.
4️⃣ Așadar, când contextul devine un nou blocaj, ce fel de revoluție tehnologică și oportunități de investiții va aduce aceasta?
De fapt, privind piața din ultimele zile, a fost foarte evident, fie că este vorba de puternicul SanDisk $SDNK, Micron, $MU Samsung sau SK. Noile blocaje tehnologice vor aduce și noi oportunități.
Aceasta a condus o revoluție în arhitecturile de stocare și subsistemele de memorie (precum memoria HBM cu lățime de bandă mare, protocolul CXL, platforma ICMS NVIDIA etc.).
5️⃣ Superciclul de depozitare chiar ar putea veni!
Acest val de schimbări logice a permis memoriei și stocării, care inițial aparțineau "rolurilor de sprijin", să obțină scenariul "protagonistului" al ciclului infrastructurii AI.
Sectorul memoriei ($MU, Samsung, Hynix): Nu mai este doar o acțiune ciclică care fluctuează cu telefoanele mobile/PC-urile, ci "piatra de temelie a expansiunii" sistemelor AI.
Stocare de înaltă performanță ($SNDK/WDC): Logica SSD-urilor enterprise trece de la o "cursă de capacitate" la o "cursă de accelerare a inferenței".
Rețelistică și DPU-uri (NVIDIA însăși): Lao Huang conectează memoria, stocarea și plăcile video prin BlueField-4 și Spectrum-X, ceea ce înseamnă că NVIDIA nu vinde doar cipuri, ci și definește regulile "modului în care circulă datele în mașină".
18
Limită superioară
Clasament
Favorite
