AI-modellkomprimering gjorde nettopp onchain-inferensen økonomisk levedyktig for første gang. Å kjøre en 7B-parametermodell pleide å koste 2-3 dollar per inferenskall når man tar med gassavgifter og beregner overhead. Denne prisingen gjør enhver forbrukerrettet AI-applikasjon død ved ankomst. Du kan ikke bygge en chatbot som koster brukerne 2 dollar per melding. Økonomien fungerte aldri. Kvantiserings- og beskjæringsteknikker komprimerer modellene ned til 1-2 milliarder parametere uten å miste særlig nøyaktighet. Plutselig faller slutningskostnadene til 0,10–0,20 dollar per samtale. Fortsatt ikke gratis, men nå er du i det området hvor mikrobetalingsmodeller blir levedyktige. Brukere kan betale brøkdeler av en cent per interaksjon, utviklere kan dekke kostnader uten VC-subsidier, og enhetsøkonomien avsluttes faktisk. Når inferens blir billig nok til å støtte ekte applikasjoner, ikke bare demoer, låser du opp et helt annet designrom. AI-agenter som er fullt onchain, samhandler kontinuerlig med brukerne, og ikke krever sentraliserte API-avhengigheter. Det er da DeAI slutter å være et forskningsprosjekt og begynner å bli infrastruktur. Se på 0G.