Lưu trữ phi tập trung vừa thay đổi kinh tế của việc phân phối các mô hình AI. Chi phí lưu trữ mô hình tập trung tăng theo tỷ lệ với mức sử dụng. Mỗi yêu cầu suy diễn đều tác động đến cùng một máy chủ, chi phí băng thông tích lũy, và các nhà cung cấp chuyển những chi phí đó cho người dùng thông qua giá API. Đó là lý do tại sao các cuộc gọi API GPT-4 có giá như vậy: có người đang trả tiền cho tính toán VÀ băng thông ở quy mô lớn. Với lưu trữ phi tập trung như lớp DA của 0G, trọng số mô hình được phân phối qua các nút. Người dùng lấy từ nút gần nhất thay vì liên tục tác động đến các máy chủ trung tâm. Chi phí băng thông được phân phối qua mạng. Đột nhiên, việc lưu trữ một mô hình 70B tham số không cần cơ sở hạ tầng có chi phí lên tới sáu con số hàng tháng. Điều này không chỉ làm cho AI rẻ hơn. Nó làm cho các mô hình phân phối hoàn toàn mới trở nên khả thi: các mô hình cập nhật thường xuyên, các mô hình có biến thể khu vực, các mô hình mà người dùng có thể chạy cục bộ sau khi tải xuống ban đầu. Rào cản không bao giờ là chất lượng mô hình, mà là kinh tế phân phối.