Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Le stockage décentralisé vient de changer l'économie de la distribution des modèles d'IA.
Les coûts d'hébergement de modèles centralisés évoluent de manière linéaire avec l'utilisation. Chaque requête d'inférence touche les mêmes serveurs, les coûts de bande passante s'accumulent, et les fournisseurs répercutent ces coûts sur les utilisateurs via la tarification API. C'est pourquoi les appels à l'API GPT-4 coûtent ce qu'ils coûtent : quelqu'un paie pour le calcul ET la bande passante à grande échelle.
Avec le stockage décentralisé comme la couche DA de 0G, les poids des modèles sont distribués à travers les nœuds. Les utilisateurs tirent des données du nœud le plus proche au lieu de frapper les serveurs centraux. Les coûts de bande passante se répartissent sur le réseau. Soudain, héberger un modèle de 70 milliards de paramètres ne nécessite pas une infrastructure coûtant six chiffres par mois.
Cela ne rend pas seulement l'IA moins chère. Cela rend complètement viables de nouveaux modèles de distribution : des modèles qui se mettent à jour fréquemment, des modèles avec des variantes régionales, des modèles que les utilisateurs peuvent exécuter localement après le téléchargement initial. La contrainte n'a jamais été la qualité du modèle, mais l'économie de distribution.
Meilleurs
Classement
Favoris
