Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-modellkomprimering gjorde nettopp onchain-inferensen økonomisk levedyktig for første gang.
Å kjøre en 7B-parametermodell pleide å koste 2-3 dollar per inferenskall når man tar med gassavgifter og beregner overhead. Denne prisingen gjør enhver forbrukerrettet AI-applikasjon død ved ankomst. Du kan ikke bygge en chatbot som koster brukerne 2 dollar per melding. Økonomien fungerte aldri.
Kvantiserings- og beskjæringsteknikker komprimerer modellene ned til 1-2 milliarder parametere uten å miste særlig nøyaktighet. Plutselig faller slutningskostnadene til 0,10–0,20 dollar per samtale. Fortsatt ikke gratis, men nå er du i det området hvor mikrobetalingsmodeller blir levedyktige. Brukere kan betale brøkdeler av en cent per interaksjon, utviklere kan dekke kostnader uten VC-subsidier, og enhetsøkonomien avsluttes faktisk.
Når inferens blir billig nok til å støtte ekte applikasjoner, ikke bare demoer, låser du opp et helt annet designrom. AI-agenter som er fullt onchain, samhandler kontinuerlig med brukerne, og ikke krever sentraliserte API-avhengigheter. Det er da DeAI slutter å være et forskningsprosjekt og begynner å bli infrastruktur.
Se på 0G.
Topp
Rangering
Favoritter
