Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🧵 1/ L'IA est partout. Mais pouvez-vous vraiment faire confiance à la manière dont elle a été formée ?
Les modèles d'IA apprennent à partir de données. Mais parfois, ces données sont sensibles (dossiers médicaux, historique financier, messages personnels, etc.)
Ainsi, les entreprises utilisent une technique appelée Apprentissage Fédéré : vos données ne quittent jamais votre appareil. Seules les "leçons apprises" sont partagées.
La vie privée est préservée.
Mais il y a un piège.

2/ Ce n'est pas parce que vos données restent locales que tout le monde dans le processus se comporte de manière honnête.
Que se passe-t-il si quelqu'un manipule l'IA pendant l'entraînement ?
Que se passe-t-il si les résultats sont falsifiés ?
Que se passe-t-il si quelqu'un profite sans rien contribuer ?
La confiance est présumée. Mais jamais prouvée.
3/ L'idée ? Ne faites pas confiance, vérifiez.
En utilisant des preuves cryptographiques, chaque étape du processus de formation de l'IA peut désormais être vérifiée.
Qui a utilisé quelles données. Si la formation a été effectuée correctement. Si les résultats ont été combinés honnêtement.
Aucune foi aveugle requise.
4/ Vérifier comment les résultats de l'IA sont combinés ("agrégation") est déjà faisable aujourd'hui, et cela comble certaines des plus grandes lacunes de sécurité dans l'IA collaborative.
La vérification complète de l'entraînement arrive. Nous n'y sommes pas encore, mais la recherche avance rapidement.
5/ La blockchain agit comme un registre d'audit public et infalsifiable.
Et avec zkVerify @zkvprotocol, vérifier ces preuves coûte aussi peu que 0,0003 $. Ce n'est pas une faute de frappe.
50
Meilleurs
Classement
Favoris
