Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 BRYTNING: Tencent har dödat "next-token"-paradigmet.
Tencent och Tsinghua har släppt CALM (Continuous Autoregressive Language Models), och det stör helt nästa token-paradigm.
LLM:er slösar för närvarande enorma mängder beräkning på att förutsäga diskreta, enskilda tokens genom ett enormt vokabulär-softmax-lager. Den är långsam och skalar dåligt.
CALM kringgår ordförrådet helt. Den använder en högupplöst autoencoder för att komprimera textbitar till en enda kontinuerlig vektor med 99,9 % rekonstruktionsnoggrannhet.
Modellen förutsäger nu "nästa vektor" i ett kontinuerligt rum.
Siffrorna är faktiskt galna:
- Varje generativt steg bär nu 4× den semantiska bandbredden.
- Träningsberäkningen minskas med 44%.
- Softmax-flaskhalsen är helt borttagen.
Vi ser bokstavligen språkmodeller utvecklas från att skriva diskreta symboler till att strömma kontinuerliga tankar.
Detta förändrar hela AI:s utveckling.

Topp
Rankning
Favoriter
