Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Canale TG: https://t.co/GJr2Qy5lAb
Colonna Futu: https://t.co/3VePAbXwhr
Uno dei motivi per cui non voglio fare trading di criptovalute è anche che non voglio che la mia vita quotidiana sia mescolata con questi simboli volgari e le notizie scandalistiche.
Spero che quando gli altri mi chiedono cosa sto studiando, possa dire apertamente cosa sto guardando.
Studio l'AI nel mercato azionario americano e le tre strade nel BSC.
183
Al CES 2026, 老黄 ha presentato un nuovo punto di vista: la nuova pressione nei data center, che era "insufficient compute", è diventata "insufficient context", affermando che "il contesto è il nuovo collo di bottiglia — lo storage deve essere riprogettato."
1️⃣ Cosa si intende qui per contesto?
Il contesto è un concetto molto centrale nell'AI! Per spiegarlo nel modo più semplice possibile:
La lunghezza del contesto è la quantità totale di testo precedente (o storia della conversazione) che il modello AI può "vedere" e considerare mentre affronta il tuo problema attuale.
Puoi immaginarlo come la "memoria a breve termine" del modello o il "numero di pagine di riferimento".
Immagina di avere un insegnante con memoria limitata:
Lunghezza del contesto breve (ad esempio 4K token): questo insegnante può ricordare solo la conversazione degli ultimi minuti. Se all'improvviso gli chiedi: "Cosa ha scritto l'autore del libro di cui abbiamo appena discusso?", se non ha più quella parte nel suo "finestra di memoria", non sarà in grado di rispondere.
Lunghezza del contesto lunga (ad esempio 128K token): questo insegnante può ricordare l'intera conversazione delle ultime ore o addirittura giorni. Può facilmente rivedere dettagli menzionati molto tempo fa e basarsi su di essi per fare ragionamenti complessi e riassunti.
2️⃣ Tecnologicamente, la lunghezza del contesto è solitamente misurata in "token". Un token è circa equivalente a 0,75 parole inglesi o a un carattere cinese.
🌟4K token: circa 3000 parole inglesi, o un breve saggio.
🌟128K token: circa 100.000 parole inglesi, equivalente alla lunghezza di un romanzo di media lunghezza.
🌟1M token: circa 750.000 parole inglesi, equivalente a diversi romanzi lunghi.
3️⃣ Perché è così importante?
La lunghezza del contesto determina direttamente la complessità e la coerenza dei compiti che il modello può gestire:
- Elaborazione di documenti lunghi: per riassumere, analizzare o tradurre un libro di diverse centinaia di pagine, è necessaria una finestra di contesto molto lunga.
- Conversazioni complesse e multi-turno: nel servizio clienti, nella consulenza psicologica o nella collaborazione creativa complessa, le conversazioni possono durare decine o addirittura centinaia di turni. Un lungo contesto può garantire che il modello non dimentichi le impostazioni e gli obiettivi iniziali, mantenendo la coerenza e la profondità della conversazione.
- Capacità di "trovare un ago in un pagliaio": questo è un test chiave per misurare l'efficacia dei modelli a lungo contesto. Cioè, se un fatto è intenzionalmente sepolto in un testo di decine di migliaia di parole, un potente modello a lungo contesto può trovare la risposta con precisione.
- Riduzione della perdita di informazioni: in un contesto breve, quando vengono inserite nuove informazioni, quelle vecchie vengono "espulse". Questo può portare a dimenticanze e contraddizioni nel modello. Un lungo contesto allevia notevolmente questo problema.
4️⃣ Cosa comporterà quando il contesto diventa il nuovo collo di bottiglia in termini di rivoluzione tecnologica e opportunità di investimento?
In realtà, guardando i mercati in questi giorni, è già molto evidente, sia che si tratti di SanDisk $SDNK, Micron $MU, Samsung, SK, tutti lo mostrano. Un nuovo collo di bottiglia tecnologico porterà anche nuove opportunità.
Questo ha spinto una rivoluzione nell'architettura di storage e nei sottosistemi di memoria (come la memoria ad alta larghezza di banda HBM, il protocollo CXL, la piattaforma ICMS di NVIDIA, ecc.).
5️⃣ Il super ciclo dello storage potrebbe davvero arrivare!
Questa logica in evoluzione ha portato la memoria e lo storage, che prima erano considerati "personaggi secondari", a ottenere il copione da "protagonisti" nel ciclo delle infrastrutture AI.
Il settore della memoria ($MU, Samsung, SK Hynix): non è più solo un'azione ciclica che fluttua con smartphone/PC, ma è la "pietra angolare" dell'espansione dei sistemi AI.
Storage ad alte prestazioni ($SNDK/WDC): la logica degli SSD aziendali è passata da una "corsa alla capacità" a una "corsa all'accelerazione dell'inferenza".
Rete e DPU (NVIDIA stessa): 老黄 ha collegato memoria, storage e GPU tramite BlueField-4 e Spectrum-X, il che significa che NVIDIA non vende solo chip, ma sta anche definendo le regole su **"come i dati fluiscono all'interno delle macchine"**.
16
Principali
Ranking
Preferiti
