Desentralisert lagring endret nettopp økonomien i distribusjon av AI-modeller. Kostnadene for sentralisert modellhosting skalerer lineært med bruk. Hver inferensforespørsel treffer de samme serverne, båndbreddekostnadene øker, og leverandørene viderefører disse kostnadene til brukerne gjennom API-prising. Derfor koster GPT-4 API-kall det de gjør: noen betaler for både datakraft OG båndbredde i stor skala. Med desentralisert lagring som 0Gs DA-lag, blir modellvekter fordelt på noder. Brukere henter fra nærmeste node i stedet for å hamre på sentrale servere. Båndbreddekostnadene fordeles over hele nettverket. Plutselig krever det ikke lenger infrastruktur som koster seks sifre i måneden for å hoste en modell med 70 milliarder parametere. Dette gjør ikke bare AI billigere. Det gjør helt nye distribusjonsmodeller levedyktige: modeller som oppdateres ofte, modeller med regionale varianter, modeller som brukere kan kjøre lokalt etter første nedlasting. Begrensningen var aldri modellkvalitet, det var distribusjonsøkonomi.