𝐁𝐢𝐭𝐭𝐞𝐧𝐬𝐨𝐫 $TAO 𝐒𝐩𝐨𝐭𝐥𝐢𝐠𝐡𝐭 – 𝐒𝐮𝐛𝐧𝐞𝐭 𝟐 | 𝐃𝐒𝐩𝐞𝐫𝐬𝐞 - 𝐓𝐮𝐫𝐧𝐢𝐧𝐠 𝐀𝐈 𝐟𝐫𝐨𝐦 “𝐭𝐫𝐮𝐬𝐭 𝐦𝐞” 𝐢𝐧𝐭𝐨 “𝐩𝐫𝐨𝐯𝐞 𝐢𝐭” DSperse sta costruendo uno dei pezzi fondamentali dello stack di Bittensor: un livello di fiducia per l'inferenza AI. Man mano che i sistemi AI si spostano in domini importanti come il trading, la robotica, la sanità e l'automazione, il rischio più grande non è più la capacità, ma la verificabilità. Se un agente AI prende una decisione, come puoi sapere che ha effettivamente eseguito il modello previsto senza essere stato manomesso o falsificato? DSperse esiste per rispondere a questa domanda in modo crittografico. 𝐏𝐫𝐨𝐨𝐟 𝐨𝐟 𝐈𝐧𝐟𝐞𝐫𝐞𝐧𝐜𝐞 La maggior parte delle AI oggi opera su assunzioni di fiducia. DSperse sostituisce queste assunzioni con la Proof of Inference (PoI) utilizzando l'apprendimento automatico a conoscenza zero (zkML). Invece di fidarsi che un'AI funzioni correttamente, DSperse consente alla rete di dimostrarlo, matematicamente. Molto importante senza rivelare: 🔸 I pesi del modello 🔸 La logica interna 🔸 Gli input privati Il risultato: output AI che sono verificabili, privati e resistenti alla manomissione. 𝐇𝐢𝐠𝐡 𝐥𝐞𝐯𝐞𝐥 𝐞𝐱𝐩𝐥𝐞𝐧𝐚𝐭𝐢𝐨𝐧 𝐨𝐟 𝐒𝐮𝐛𝐧𝐞𝐭 𝟐 Dsperse verifica i modelli AI attraverso questi 4 passaggi: 1️⃣ Decomposizione del modello I miner scompongono il modello in componenti più piccoli e verificabili, concentrandosi solo sulle parti che contano per la correttezza. 2️⃣ Prova a conoscenza zero...