Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gradient
Parlons de l'infrastructure AI décentralisée, tous les projets dans ce domaine sont des monstres de financement, car leur capacité à raconter des histoires est très forte, mais à ce stade, il est difficile de savoir où cela peut se concrétiser et quelle expérience différente cela peut apporter, du point de vue de @Gradient_HQ :
En décomposant l'IA en sa structure la plus simple, on peut essentiellement la diviser en 4 couches : application, orchestration d'exécution, entraînement de modèles et données, ce qui est compréhensible au sens littéral.
La plupart des projets DeAI se concentrent principalement sur la couche d'orchestration d'exécution, tout en ajoutant des caractéristiques liées à la crypto, comme le règlement et les incitations, la vérifiabilité ZK, etc. La couche d'entraînement de modèles et le côté exécution sont actuellement les plus concentrés et les plus coûteux, et il est très difficile de les décentraliser à ce stade.
Pour les débutants, commençons par une petite vulgarisation, ceux qui ont des connaissances spécialisées peuvent sauter cette partie. L'exécution et l'orchestration peuvent être comprises comme la distribution des demandes vers la puissance de calcul et les modèles, par exemple le marché de la puissance de calcul, la planification des tâches, etc. Comprenons d'abord ce qu'est la "puissance de calcul" ; en termes simples, faire fonctionner un modèle nécessite de nombreux calculs mathématiques, et la capacité à exécuter ces calculs est la puissance de calcul. Dans le domaine de l'IA traditionnelle, par exemple lorsque vous discutez avec ChatGPT, il faut de la puissance de calcul pour effectuer des inférences, ce qui provient principalement des centres de données cloud (GPU/accélérateurs AI sur les serveurs). Vous entrez du contenu → cela est envoyé via le réseau au backend → un ensemble de GPU/accélérateurs dans le centre de données backend exécute le modèle pour compléter l'inférence → les résultats sont renvoyés au navigateur.
L'infrastructure que Gradient met actuellement en avant : Parallax, diffère des systèmes de calcul que nous voyons habituellement, centrés sur les H100 et H20, car elle décompose l'inférence sur des appareils de différents modèles, avec différentes mémoires et conditions réseau. Elle divise automatiquement le modèle en tailles appropriées pour que chaque machine puisse fonctionner, son défi principal étant l'efficacité de communication entre les machines et l'optimisation des performances dans un environnement matériel hétérogène. La plupart des projets essaient encore de "mettre en chaîne" le règlement des H100 hors ligne, tandis que Gradient a tenté quelque chose de plus audacieux, permettant à deux cartes 4090 coûtant 4000 dollars de produire un effet proche de celui d'une seule A100 coûtant près de 20000 dollars.
Cela permet deux cas d'utilisation :
1/ Chacun peut utiliser quelques ordinateurs chez soi pour effectuer des inférences sur de grands modèles, garantissant ainsi la confidentialité personnelle. 2/ Chacun peut rejoindre un cluster de réseau d'inférence, collaborant avec des amis pour inférer des modèles, voire constituer un réseau d'inférence plus vaste. Ici, Gradient a également conçu un ensemble d'algorithmes assez complexes, y compris l'optimisation du nombre de segments de découpe et le routage dynamique des demandes, que je ne développerai pas ici, mais ceux qui sont intéressés peuvent lire le document.
Bien sûr, Gradient ne se limite pas à cela, je ne vais pas m'étendre ici, c'est une infrastructure AI open source. Elle inclut également des sujets de pointe dans le domaine de l'IA, comme l'apprentissage par renforcement, ce qui montre qu'il s'agit d'une équipe ambitieuse, très impliquée dans l'innovation AI. Récemment, l'équipe a également été reconnue et soutenue par des laboratoires AI tels que Moonlight Abyss et Alibaba Qianwen, ce qui est relativement rare dans le domaine. Cette approche améliore l'IA en intégrant des ressources hétérogènes et en construisant un système open source et ouvert, permettant à plus de personnes de faire fonctionner facilement de grands modèles et de créer des applications plus intéressantes. Par rapport à la location de puissance de calcul, cela réduit les coûts dans une certaine mesure, diminue le risque de point unique et améliore la résistance à la censure, ce qui est familier dans le domaine de la crypto, tout en permettant de traiter les données sensibles localement ou à proximité.
De nombreux géants de l'industrie ont également une attitude positive envers DeAI, l'un des plus grands partisans de la narration DeAI, David O. Sacks, a souligné à plusieurs reprises : l'IA va remodeler le monde, mais son chemin de développement centralisé est plein de risques. Une infrastructure AI décentralisée est le seul moyen d'assurer une innovation continue et une concurrence libre.
Gradient a actuellement levé 10 millions de dollars, dirigé par des investisseurs vedettes tels que Multicoin Capital, Pantera, HSG (anciennement Sequoia China).
"Si l'IA devient monopolistique, c'est la fin du jeu.
L'avenir dépend de la capacité de l'intelligence à être ouverte - décentralisée, distribuée et accessible à tous."
— David O. Sacks

Meilleurs
Classement
Favoris

