Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Struktur Jaminan Kepercayaan untuk Pelatihan dan Verifikasi Model AI Terdesentralisasi yang Transparan
@gensynai , @nesaorg , @DeepNodeAI
Premis pertama yang dipertimbangkan saat melatih dan memvalidasi model AI di lingkungan terdistribusi adalah bahwa tidak mungkin untuk berasumsi bahwa semua peserta akan selalu berperilaku jujur. Dalam kasus penelitian dan operasi aktual, kegagalan spesifik telah diidentifikasi, seperti free riding di mana node komputasi mengembalikan hasil yang masuk akal tetapi tidak diverifikasi untuk mengurangi biaya komputasi, keracunan data karena penyisipan data pelatihan berbahaya, pengiriman pernyataan penyelesaian yang dimanipulasi dalam proses pembelajaran penguatan, manipulasi gradien yang tidak terungkap secara statistik, dan situasi di mana beberapa node berkolusi untuk mendistorsi struktur konsensus. Risiko ini memberikan titik awal untuk menjelaskan mengapa mekanisme untuk menjamin transparansi dan kepercayaan secara teknis diperlukan.
Untuk mengatasi masalah ini, Gensyn mengusulkan struktur berorientasi eksekusi yang mengambil perhitungan itu sendiri sebagai objek verifikasi. Dalam struktur ini, tugas pembelajaran mesin diuraikan menjadi grafik komputasi deterministik tingkat operator yang dapat direproduksi, dan operasi yang sama dirancang untuk direproduksi secara merata sedikit demi sedikit di lingkungan perangkat keras yang berbeda. Protokol Verde menggabungkan delegasi arbitrase dengan permainan dikotomi untuk menemukan titik operasi pertama di mana hasil perhitungan tidak sejajar dan mengulanginya dengan eksekusi ulang minimal dari bagian yang disengketakan, menjaga efisiensi. Penyesuaian ekonomi ditangani pada rollup berbasis Ethereum, dan operasi skala besar yang sebenarnya dilakukan secara off-chain, tetapi fitur utamanya adalah bahwa keakuratan hasil dijamin secara kriptografis jika setidaknya ada satu node jujur.
Dalam tumpukan yang sama, Delphi Gensyn bertanggung jawab untuk memverifikasi seberapa baik model yang dihasilkan bekerja, bukan bagaimana perhitungan dilakukan. Delphi menyelenggarakan evaluasi kinerja model dalam bentuk pasar prediksi, memungkinkan peserta untuk bertaruh pada hasil kinerja, dan secara transparan menentukan hasil melalui logika penilaian on-chain. Proses ini didasarkan pada verifikasi statistik dan insentif ekonomi daripada bukti kriptografi, tetapi berfungsi sebagai mekanisme yang memberikan transparansi dalam kriteria dan hasil evaluasi yang dicatat secara publik.
NESA, di sisi lain, mengambil struktur yang memprioritaskan perlindungan privasi daripada transparansi. NESA menggunakan sharding jaringan saraf berurutan berbasis blockchain untuk membagi model menjadi beberapa bagian dan menerapkan teknik distribusi rahasia isomorfik untuk enkripsi isomorfik dan penyematan terenkripsi sehingga tidak ada satu node yang dapat melihat seluruh model atau seluruh data. Pendekatan ini berfokus pada penyempurnaan parameter yang efisien menggunakan adaptor daripada melatih seluruh model dari awal, dan ditandai dengan mempertahankan batas privasi melalui prosedur yang memverifikasi hasil inferensi yang dilakukan off-chain on-chain. Namun, karena proses perhitungan dienkripsi, ada juga keterbatasan struktural yang sulit untuk mereproduksi atau memverifikasi operasi secara langsung dari luar.
DeepNode AI membahas transparansi ke arah lain. Sistem ini menggunakan mekanisme pasar berdasarkan evaluasi timbal balik dan staking antar node daripada bukti kriptografi dari proses komputasi. Setiap sistem cerdas mengevaluasi informasi keluaran dari sistem lain, dan imbalan didistribusikan sesuai dengan fungsi penurunan berbobot taruhan. Reputasi terbentuk melalui interaksi berulang, penalti dikenakan untuk pengajuan yang salah, dan tekanan ekonomi ini berfungsi untuk menyelaraskan perilaku peserta. Struktur ini dibedakan oleh fakta bahwa meskipun tidak memberikan bukti kriptografi, ia membangun kepercayaan dengan cara yang secara transparan mengungkapkan motivasi untuk berpartisipasi.
Secara bersama-sama, pendekatan ini menunjukkan bahwa transparansi dalam pelatihan dan verifikasi AI terdesentralisasi bukanlah konsep tunggal tetapi diwujudkan dalam beberapa lapisan. Verde Gensyn memverifikasi apakah suatu tugas dilakukan, Delphi memverifikasi kinerja hasil, dan DeepNode memverifikasi kontribusi dan integritas peserta dengan cara yang berbeda, yang semuanya Nesa berfokus pada meminimalkan paparan data dan model dalam prosesnya. Pada saat yang sama, ketegangannya juga jelas: komputasi terenkripsi membatasi reproduktifitas dan auditabilitas langsung, dan struktur yang memerlukan reproduktifitas penuh memberikan sedikit privasi data.
Akibatnya, tumpukan AI terdesentralisasi saat ini dievaluasi tidak sepenuhnya mengatasi masalah seperti asal dan keaslian data pelatihan, sinkronisasi gradien di lingkungan global, dan koordinasi antara sistem ekonomi yang berbeda. Namun demikian, relatif jelas elemen struktural apa yang terdiri dari pelatihan dan verifikasi model AI terdesentralisasi yang transparan, karena mekanisme yang berbeda seperti verifikasi komputasi, evaluasi kinerja, insentif ekonomi, dan perlindungan privasi memberikan transparansi dalam lingkup verifikasi.
$NESA



Teratas
Peringkat
Favorit
