Zdecentralizowane przechowywanie właśnie zmieniło ekonomię dystrybucji modeli AI. Koszty centralnego hostingu modeli rosną liniowo wraz z użyciem. Każde żądanie inferencji trafia na te same serwery, koszty pasma się kumulują, a dostawcy przenoszą te koszty na użytkowników poprzez ceny API. Dlatego wywołania API GPT-4 kosztują tyle, ile kosztują: ktoś płaci za obliczenia I pasmo na dużą skalę. Dzięki zdecentralizowanemu przechowywaniu, takiemu jak warstwa DA 0G, wagi modeli są rozdzielane pomiędzy węzły. Użytkownicy pobierają z najbliższego węzła zamiast obciążać centralne serwery. Koszty pasma rozkładają się w sieci. Nagle hosting modelu o 70 miliardach parametrów nie wymaga infrastruktury, która kosztuje sześciocyfrowe kwoty miesięcznie. To nie tylko obniża koszty AI. Umożliwia to całkowicie nowe modele dystrybucji: modele, które aktualizują się często, modele z regionalnymi wariantami, modele, które użytkownicy mogą uruchamiać lokalnie po początkowym pobraniu. Ograniczeniem nigdy nie była jakość modelu, lecz ekonomia dystrybucji.