Structure de garantie de confiance pour l'entraînement et la validation de modèles d'IA décentralisés et transparents @gensynai , @nesaorg , @DeepNodeAI Lors de l'entraînement et de la validation de modèles d'IA dans un environnement décentralisé, le premier postulat à considérer est que l'on ne peut pas toujours supposer que tous les participants agissent de manière honnête. Dans des cas d'études et d'opérations réels, des comportements tels que le free-riding, où des nœuds de calcul retournent des résultats plausibles mais non vérifiés pour réduire les coûts de calcul, l'insertion de données malveillantes entraînant un empoisonnement des données, la soumission de phrases complètes manipulées lors du processus d'apprentissage par renforcement, la manipulation de gradients qui ne se manifeste pas statistiquement, et des situations où plusieurs nœuds conspirent pour déformer la structure de consensus, ont été identifiés comme des modes d'échec concrets. Ces risques expliquent pourquoi il est nécessaire d'avoir des mécanismes qui garantissent techniquement la transparence et la confiance. Pour répondre à ce problème, Gensyn propose une structure centrée sur l'exécution qui prend la validation de l'exécution elle-même comme cible. Dans cette structure, les tâches d'apprentissage automatique sont décomposées en graphes de calcul déterministes à l'unité d'opérateur reproductible, conçus pour que les mêmes opérations soient reproduites de manière identique, bit à bit, même dans des environnements matériels différents. Le protocole Verde combine la délégation d'arbitrage et le jeu dichotomique pour identifier le premier point d'opération où les résultats de calcul divergent, maintenant ainsi l'efficacité en ne réexécutant que la partie où un litige est survenu. L'ajustement économique est traité dans un rollup basé sur Ethereum, et bien que les calculs à grande échelle soient effectués hors chaîne, il est essentiel de noter qu'avec au moins un nœud honnête, l'exactitude des résultats est cryptographiquement garantie. Dans le même stack, Delphi de Gensyn a pour rôle de valider non pas comment le calcul a été effectué, mais à quel point le modèle de résultat fonctionne bien. Delphi structure l'évaluation des performances du modèle sous forme de marché prédictif, permettant aux participants de parier sur les résultats de performance et de confirmer les résultats de manière transparente via une logique de jugement on-chain. Ce processus, bien qu'il soit basé sur une validation statistique et des incitations économiques plutôt que sur des preuves cryptographiques, fonctionne comme un mécanisme de transparence en ce sens que les critères d'évaluation et les résultats sont enregistrés publiquement. En revanche, Nesa adopte une structure qui privilégie la protection de la vie privée plutôt que la transparence. Nesa divise le modèle en plusieurs morceaux à l'aide d'un sharding de réseau neuronal séquentiel basé sur la blockchain et applique des techniques de distribution secrète homomorphique sur le chiffrement isomorphe et les embeddings chiffrés, de sorte qu'aucun nœud unique ne puisse voir l'ensemble du modèle ou l'ensemble des données. Cette approche se concentre sur un ajustement fin efficace des paramètres utilisant des adaptateurs plutôt que sur l'entraînement complet du modèle dès le départ, et maintient les frontières de la vie privée à travers un processus de validation des résultats d'inférence effectués hors chaîne sur la chaîne. Cependant, il existe également une limite structurelle à cette approche, car le processus de calcul étant chiffré, il est difficile de reproduire ou de valider directement les calculs de l'extérieur. DeepNode AI aborde la transparence sous un autre angle. Ce système utilise un mécanisme de marché basé sur l'évaluation mutuelle entre nœuds et le staking, plutôt que sur des preuves cryptographiques du processus de calcul. Chaque système intelligent évalue les informations de sortie d'autres systèmes, et les récompenses sont distribuées selon une fonction de perte pondérée par le stake. Au cours d'interactions répétées, une réputation se forme, et des pénalités sont imposées pour des soumissions incorrectes, ce qui aligne le comportement des participants grâce à cette pression économique. Bien que cette structure ne fournisse pas de preuves cryptographiques, elle se distingue par sa capacité à révéler de manière transparente les motivations des participants et à établir la confiance. En résumé, il est clair que la transparence dans l'entraînement et la validation de l'IA décentralisée ne se réalise pas comme un concept unique, mais se divise en plusieurs niveaux. Verde de Gensyn vérifie l'exécution des tâches, Delphi vérifie la performance des résultats, DeepNode vérifie les contributions et l'intégrité des participants, tandis que Nesa se concentre sur la minimisation de l'exposition des données et des modèles dans tout ce processus. En même temps, il est également évident que le calcul chiffré limite la reproductibilité et la possibilité d'audit direct, et qu'une structure exigeant une reproductibilité complète ne fournit presque aucune protection de la vie privée des données. En conséquence, l'actuel stack d'IA décentralisé est évalué comme n'ayant pas complètement résolu des problèmes tels que l'origine et l'authenticité des données d'apprentissage, la synchronisation des gradients dans un environnement global, et l'ajustement entre différents systèmes économiques. Néanmoins, il est relativement clair que différents mécanismes tels que la validation des calculs, l'évaluation des performances, les incitations économiques et la protection de la vie privée fournissent chacun une transparence dans des limites vérifiables, ce qui révèle comment une formation et une validation de modèles d'IA décentralisés et transparents sont structurées.