AI-modelcompressie heeft on-chain inferentie voor het eerst economisch haalbaar gemaakt. Het draaien van een model met 7 miljard parameters kostte vroeger $2-3 per inferentieaanroep als je rekening houdt met gasprijzen en rekenoverhead. Die prijsstelling maakt elke consumentgerichte AI-toepassing kansloos. Je kunt geen chatbot bouwen die gebruikers $2 per bericht kost. De economie werkte nooit. Quantisatie- en snoeitechnieken comprimeren modellen tot 1-2 miljard parameters zonder veel nauwkeurigheid te verliezen. Plotseling dalen de inferentiekosten naar $0,10-0,20 per aanroep. Nog steeds niet gratis, maar nu zit je in het bereik waar micropaymentmodellen haalbaar worden. Gebruikers kunnen fracties van een cent per interactie betalen, ontwikkelaars kunnen kosten dekken zonder VC-subsidies, en de eenheids-economieën sluiten daadwerkelijk aan. Wanneer inferentie goedkoop genoeg wordt om echte toepassingen te ondersteunen, niet alleen demo's, ontgrendel je een compleet andere ontwerpruimte. AI-agenten die volledig on-chain leven, continu met gebruikers interageren en geen gecentraliseerde API-afhankelijkheden vereisen. Dat is wanneer DeAI stopt met een onderzoeksproject te zijn en begint met infrastructuur. Bekijk 0G.