Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CES 2026 -tapahtumassa Lao Huang esitti uuden näkökulman: datakeskuksen uuden pullonkaulan paine on muuttunut "riittämättömästä laskentatehosta" "puutteelliseen kontekstiin" ja ehdotti, että "Konteksti on uusi pullonkaula — tallennus on uudelleenrakennettava."
1️⃣ Mitä tarkalleen ottaen Konteksti tässä tarkoittaa?
Konteksti on hyvin keskeinen tekoälykonsepti! Suosituimmin sanoin:
Kontekstin pituus on aiempien tekstien (tai keskusteluhistorian) kokonaismäärä, jonka tekoälymalli voi "nähdä" ja ottaa huomioon ratkaistessaan nykyisen ongelmasi.
Voit ajatella sitä mallin "lyhytaikaisena työmuistina" tai "viitekirjasivuina".
Oletetaan, että sinulla on opettaja, jolla on rajallinen muisti:
Lyhyt kontekstipituus (esim. 4K-tokenit): Tämä opettaja muistaa vain viimeiset minuutit keskustelusta. Jos yhtäkkiä kysyt häneltä: "Mitä muuta kirjan kirjoittaja, josta juuri keskustelimme?" Jos tämä osa hänen "muistiikkunastaan" ei enää ole siellä, hän ei voi vastata.
Pitkä kontekstipituus (esim. 128 000 tokenia): Tämä opettaja muistaa koko keskustelusi viimeisiltä tunneilta tai jopa päiviltä. Hän voi helposti käydä läpi kauan sitten mainitut yksityiskohdat ja tehdä monimutkaisia päättelyjä ja yhteenvetoja niiden pohjalta.
2️⃣Teknisesti kontekstin pituus mitataan yleensä "tokeneina". Token vastaa suunnilleen 0,75 englanninkielistä sanaa tai yhtä kiinalaista merkkiä.
🌟4K-tokenit: noin 3000 englanninkielistä sanaa tai lyhyt artikkeli.
🌟128K tokenia: Noin 100 000 englanninkielistä sanaa, mikä vastaa romaanin pituutta.
🌟1M tokenia: Noin 750 000 englanninkielistä sanaa, vastaa useita eeppisiä kirjoja.
3️⃣Miksi se on niin tärkeää?
Kontekstin pituus määrittää suoraan mallin hoitamien tehtävien monimutkaisuuden ja johdonmukaisuuden:
-Pitkä asiakirjakäsittely: Satojen sivujen kirjan tiivistäminen, analysointi tai kääntäminen vaatii ylimääräisen pitkän kontekstiikkunan.
-Monimutkaiset monivaiheiset keskustelut: Asiakaspalvelussa, psykologisessa neuvonnassa tai monimutkaisissa luovissa yhteistyöprojekteissa keskustelut voivat kestää kymmeniä tai jopa satoja kierroksia. Pitkät kontekstit varmistavat, ettei malli unohda alkuperäisiä asetuksia ja tavoitteita, säilyttäen dialogin johdonmukaisuuden ja syvyyden.
- "Neula heinäsuovassa" -kyky: Tämä on keskeinen testi pitkän kontekstin mallien tehokkuuden mittaamiseen. Toisin sanoen fakta haudataan tarkoituksella kymmeniin tuhansiin sanoihin, ja tehokas pitkän kontekstin malli voi löytää vastauksen tarkasti.
- Vähentynyt tiedon menetys: Lyhyissä yhteyksissä vanha tieto "puristetaan" pois, kun uutta tietoa syödään. Tämä johtaa mallin muistinmenetykseen, epäjohdonmukaisuuteen. Pitkä konteksti helpottaa tätä ongelmaa merkittävästi.
4️⃣ Kun konteksti muuttuu uudeksi pullonkaulaksi, millaisia teknologisia vallankumouksia ja sijoitusmahdollisuuksia se tuo mukanaan?
Itse asiassa, kun katsoo markkinoita viime päivinä, on ollut hyvin selvää, olipa kyse vahvasta SanDisk $SDNK:sta, Micronista, $MU Samsungista tai SK:sta. Uudet teknologiset pullonkaulat tuovat myös uusia mahdollisuuksia.
Tämä on johtanut vallankumoukseen tallennusarkkitehtuureissa ja muistialijärjestelmissä (kuten HBM:n suuren kaistanleveyden muisti, CXL-protokolla, NVIDIA:n ICMS-alusta jne.).
5️⃣ Säilytyssupersykli saattaa todella tulla!
Tämä loogisten muutosten aalto on mahdollistanut muistin ja tallennuksen, jotka alun perin kuuluivat "tukirooleihin", saamaan tekoälyn infrastruktuurisyklin "päähenkilö"-skriptin....
Johtavat
Rankkaus
Suosikit
