🚨 BRYTNING: Tencent har dödat "next-token"-paradigmet. Tencent och Tsinghua har släppt CALM (Continuous Autoregressive Language Models), och det stör helt nästa token-paradigm. LLM:er slösar för närvarande enorma mängder beräkning på att förutsäga diskreta, enskilda tokens genom ett enormt vokabulär-softmax-lager. Den är långsam och skalar dåligt. CALM kringgår ordförrådet helt. Den använder en högupplöst autoencoder för att komprimera textbitar till en enda kontinuerlig vektor med 99,9 % rekonstruktionsnoggrannhet. Modellen förutsäger nu "nästa vektor" i ett kontinuerligt rum. Siffrorna är faktiskt galna: - Varje generativt steg bär nu 4× den semantiska bandbredden. - Träningsberäkningen minskas med 44%. - Softmax-flaskhalsen är helt borttagen. Vi ser bokstavligen språkmodeller utvecklas från att skriva diskreta symboler till att strömma kontinuerliga tankar. Detta förändrar hela AI:s utveckling.