El almacenamiento descentralizado acaba de cambiar la economía de distribuir modelos de IA. Los costes de alojamiento centralizado de modelos escalan linealmente con el uso. Cada solicitud de inferencia llega a los mismos servidores, los costes de ancho de banda se acumulan y los proveedores trasladan esos costes a los usuarios a través de la fijación de precios de la API. Por eso las llamadas API de GPT-4 cuestan lo que cuestan: alguien paga por el cálculo Y el ancho de banda a gran escala. Con almacenamiento descentralizado como la capa DA de 0G, los pesos de los modelos se distribuyen entre los nodos. Los usuarios extraen desde el nodo más cercano en lugar de bombardear los servidores centrales. Los costes de ancho de banda se distribuyen a lo largo de la red. De repente, alojar un modelo de 70 mil millones de parámetros no requiere una infraestructura que cueste seis cifras mensuales. Esto no solo hace que la IA sea más barata. Hace viables modelos de distribución completamente nuevos: modelos que se actualizan con frecuencia, modelos con variantes regionales, modelos que los usuarios pueden ejecutar localmente tras la descarga inicial. La limitación nunca fue la calidad del modelo, fue la economía de la distribución.