𝐁𝐢𝐭𝐭𝐞𝐧𝐬𝐨𝐫 $TAO 𝐒𝐩𝐨𝐭𝐥𝐢𝐠𝐡𝐭 – 𝐒𝐮𝐛𝐧𝐞𝐭 𝟐 | 𝐃𝐒𝐩𝐞𝐫𝐬𝐞 - 𝐓𝐮𝐫𝐧𝐢𝐧𝐠 𝐀𝐈 𝐟𝐫𝐨𝐦 “𝐭𝐫𝐮𝐬𝐭 𝐦𝐞” 𝐢𝐧𝐭𝐨 “𝐩𝐫𝐨𝐯𝐞 𝐢𝐭” DSperse buduje jeden z najważniejszych elementów stosu Bittensor: warstwę zaufania dla wnioskowania AI. W miarę jak systemy AI wkraczają w ważne dziedziny, takie jak handel, robotyka, opieka zdrowotna i automatyzacja, największym ryzykiem nie jest już zdolność, ale weryfikowalność. Jeśli agent AI podejmuje decyzję, jak możesz wiedzieć, że rzeczywiście uruchomił zamierzony model bez manipulacji lub fałszerstwa? DSperse istnieje, aby odpowiedzieć na to pytanie kryptograficznie. 𝐏𝐫𝐨𝐨𝐟 𝐨𝐟 𝐈𝐧𝐟𝐞𝐫𝐞𝐧𝐜𝐞 Większość AI dzisiaj działa na założeniach zaufania. DSperse zastępuje te założenia dowodem wnioskowania (PoI) przy użyciu uczenia maszynowego z zerową wiedzą (zkML). Zamiast ufać, że AI działa poprawnie, DSperse pozwala sieci to udowodnić matematycznie. Co bardzo ważne, bez ujawniania: 🔸 Wag modelu 🔸 Wewnętrznej logiki 🔸 Prywatnych danych wejściowych Rezultat: wyjścia AI, które są weryfikowalne, prywatne i odporne na manipulacje. 𝐇𝐢𝐠𝐡 𝐥𝐞𝐯𝐞𝐥 𝐞𝐱𝐩𝐥𝐞𝐧𝐚𝐭𝐢𝐨𝐧 𝐨𝐟 𝐒𝐮𝐛𝐧𝐞𝐭 𝟐 Dsperse weryfikuje modele AI w czterech krokach: 1️⃣ Dekompozycja modelu Górnicy dzielą model na mniejsze, weryfikowalne komponenty, koncentrując się tylko na częściach, które mają znaczenie dla poprawności. 2️⃣ Dowodzenie z zerową wiedzą...