Validation des données dans le calcul AI décentralisé : une transition structurelle vers une intelligence artificielle totalement intègre @OpenledgerHQ , @gensynai , @OpenGradient Le calcul AI décentralisé propose une solution totalement différente à la question de savoir comment l'intelligence artificielle est créée et validée. Dans un environnement centralisé, le jugement sur l'origine des données, la précision du processus d'apprentissage et la fiabilité des résultats d'inférence dépendait de la gestion interne, de la documentation et des audits d'une organisation spécifique. Dans une structure décentralisée, la base de cette confiance repose non pas sur l'organisation, mais sur la technologie elle-même, en séparant le processus complet de l'intelligence artificielle en couches vérifiables pour les données, le calcul et l'inférence. Le point de départ de cette structure est les données d'apprentissage. Les modèles d'intelligence artificielle sont construits sur la base de grandes quantités de données, mais dans un environnement traditionnel, il est difficile de vérifier l'origine et l'historique des modifications des données de l'extérieur. OpenLedger joue un rôle dans la résolution de ce problème en assurant l'intégrité et la traçabilité des données. Dans OpenLedger, les données ne sont pas simplement stockées, mais il est clairement enregistré qui a fourni les données, à quelles fins et dans quel contexte. Les données sont enregistrées dans un réseau de données structuré par domaine, et chaque contribution est enregistrée sur la blockchain avec des informations de version. Cela crée une structure qui permet de suivre quelles données ont été réellement utilisées pour l'apprentissage d'un modèle spécifique et comment ces données ont influencé les résultats. Ce processus empêche les données de disparaître dans une boîte noire et laisse une relation vérifiable entre les données et la performance du modèle. Une fois les données prêtes, l'étape suivante concerne les ressources de calcul qui effectuent réellement l'apprentissage. Gensyn fournit un réseau de calcul décentralisé qui connecte des ressources de calcul inactives dispersées dans le monde entier pour les utiliser dans l'apprentissage de l'intelligence artificielle. L'essentiel ici n'est pas seulement de distribuer le calcul, mais de prouver que ce calcul a été effectué correctement. Gensyn vérifie la légitimité du processus d'apprentissage via le protocole de validation Verde. Les tâches d'apprentissage sont déléguées à plusieurs participants, et en cas de désaccord sur les résultats, une méthode est utilisée pour identifier les points d'erreur sans recalculer l'ensemble du processus. Ce qui rend cela possible, c'est une structure d'opérateurs reproductibles qui fixe strictement l'ordre des opérations pour que des résultats identiques soient obtenus sur différents matériels. Grâce à cela, la cohérence des résultats d'apprentissage peut être vérifiée même dans un environnement décentralisé, et les coûts de validation sont minimisés. Cette structure présente également des caractéristiques claires en termes de coûts et d'accessibilité. L'apprentissage utilisant des GPU haute performance dans un environnement cloud centralisé exige des coûts élevés, mais Gensyn vise à fournir le même niveau de calcul à un coût inférieur en utilisant des ressources inactives. En même temps, la validation de l'exécution réelle du calcul est traitée par des procédures cryptographiques et une validation basée sur des jeux, remplaçant ainsi une simple déclaration de confiance par une vérification fondée sur des bases techniques. Après l'achèvement de l'apprentissage, la validation ne s'arrête pas. Il est nécessaire de vérifier si les résultats de l'inférence effectuée par le modèle sont corrects. OpenGradient est responsable de la validation à cette étape d'inférence. Dans la structure d'OpenGradient, l'inférence de l'intelligence artificielle est exécutée dans des transactions blockchain, et les résultats d'inférence sont vérifiés selon la méthode de validation choisie. La méthode la plus robuste consiste à prouver mathématiquement l'exactitude des calculs par des preuves à divulgation nulle de connaissance, et des méthodes utilisant des environnements d'exécution de confiance basés sur le matériel sont également utilisées. Dans des situations relativement à faible risque, une méthode simple reposant sur la sécurité cryptoeconomique peut être appliquée. Ces différentes méthodes sont choisies en fonction de l'importance, des coûts et des exigences de performance de l'inférence. Une caractéristique d'OpenGradient est que le processus d'inférence n'est pas traité secrètement en dehors de la chaîne, mais est considéré comme une partie de la transition d'état de la blockchain. Les fichiers de modèle sont stockés dans un stockage décentralisé, et les demandes d'inférence et les résultats sont liés par des identifiants clairs. Cela permet de vérifier après coup quel modèle a généré quelle sortie avec quelle méthode de validation pour une entrée spécifique. Les résultats d'inférence ne sont pas simplement des valeurs de sortie, mais sont enregistrés comme des produits d'opérations vérifiables. Ainsi, OpenLedger, Gensyn et OpenGradient se répartissent les rôles à différentes étapes : données, apprentissage et inférence. À l'étape des données, l'origine et les contributions sont suivies, à l'étape d'apprentissage, l'exactitude des calculs est vérifiée, et à l'étape d'inférence, la légitimité des résultats est prouvée. Ces trois couches ne sont pas intégrées en un seul système, mais fonctionnellement, elles forment une chaîne de validation continue. La structure est conçue pour ne laisser aucune étape dans l'opacité. Cette structure de validation des données dans le calcul AI décentralisé montre un changement dans la manière de rendre l'intelligence artificielle plus fiable. Alors que la base de confiance passe de la réputation des entreprises ou du contrôle interne à une preuve technique, les systèmes d'intelligence artificielle intègrent structurellement l'explicabilité et la responsabilité. Un environnement où l'on peut vérifier d'où viennent les données, comment l'apprentissage a été effectué et si l'inférence était précise permet de traiter l'intelligence artificielle non pas comme un outil incompréhensible, mais comme un système de calcul vérifiable. Cela montre que la décentralisation va au-delà d'une simple distribution et restructure la base même de la confiance dans l'intelligence artificielle. $OPEN