Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-modellkomprimering gjorde onchain-inferens ekonomiskt lönsamt för första gången.
Att köra en 7B-parametermodell brukade kosta 2–3 dollar per inferenssamtal när man räknar in gasavgifter och beräknar overhead. Den prissättningen gör att varje konsumentinriktad AI-applikation är död vid ankomst. Du kan inte bygga en chatbot som kostar användarna 2 dollar per meddelande. Ekonomin fungerade aldrig.
Kvantiserings- och beskärningstekniker komprimerar modeller till 1–2 miljarder parametrar utan att förlora mycket noggrannhet. Plötsligt sjunker inferenskostnaderna till 0,10–0,20 dollar per samtal. Fortfarande inte gratis, men nu är du i det spann där mikrobetalningsmodeller blir gångbara. Användare kan betala bråkdelar av en cent per interaktion, utvecklare kan täcka kostnader utan VC-subventioner, och enhetsekonomin kan faktiskt stängas.
När inferens blir tillräckligt billig för att stödja verkliga applikationer, inte bara demos, låser du upp ett helt annat designutrymme. AI-agenter som lever helt på kedjan, interagerar kontinuerligt med användare och inte kräver centraliserade API-beroenden. Det är då DeAI slutar vara ett forskningsprojekt och börjar bli infrastruktur.
Titta på 0G.
Topp
Rankning
Favoriter
