Şeffaf Merkeziyetsiz Yapay Zeka Modeli Eğitimi ve Doğrulama İçin Güven Güven Yapısı @gensynai , @nesaorg , @DeepNodeAI Dağıtık bir ortamda yapay zeka modellerini eğitip doğrularken dikkate alınan ilk varsayım, tüm katılımcıların her zaman dürüst davranacağını varsaymanın imkansız olduğudur. Gerçek araştırma ve operasyon vakalarında, hesaplama düğümlerinin hesaplama maliyetlerini azaltmak için makul ancak doğrulanmamış sonuçlar verdiği serbest kullanım, kötü niyetli eğitim veri eklenmesi nedeniyle veri zehirlenmesi, pekiştirme öğrenme sürecinde manipüle edilmiş tamamlama bildirimi gönderimi, istatistiksel olarak açıklanmayan gradyan manipülasyonu ve birden fazla düğümün uzlaşma yapısını çarpıtmak için iş birliği yaptığı durumlar gibi belirli hatalar tespit edilmiştir. Bu riskler, şeffaflık ve güveni teknik olarak garanti eden mekanizmaların neden gerekli olduğunu açıklamak için bir başlangıç noktası sağlar. Bu sorunu çözmek için Gensyn, hesaplamayı doğrulamanın nesnesi olarak alan yürütme odaklı bir yapı önerir. Bu yapıda, makine öğrenimi görevi tekrarlanabilir operatör düzeyinde deterministik hesaplamalı grafiklere ayrılır ve aynı işlem, farklı donanım ortamlarında eşit bit bit tekrarlanacak şekilde tasarlanmıştır. Verde protokolü, tahkim delegasyonunu ikili bir oyunla birleştirerek hesaplama sonucunun yanlış hizalandığı ilk çalışma noktasını bulur ve tartışmalı kısmı minimum yeniden yürüterek verimliliği korur. Ekonomik ayarlamalar Ethereum tabanlı rollup'larda yürütülür ve gerçek büyük ölçekli işlemler zincir dışı gerçekleştirilir, ancak temel özellik, en az bir dürüst düğüm varsa sonuçların doğruluğunun kriptografik olarak garanti edilmesidir. Aynı yığın içinde, Gensyn'in Delphi'si ortaya çıkan modelin ne kadar iyi çalıştığını doğrulamaktan sorumludur, hesaplamaların nasıl yapıldığından değil. Delphi, model performans değerlendirmelerini tahmin piyasaları şeklinde organize eder, katılımcıların performans sonuçlarına bahis yapmasına izin verir ve zincir içi yargı mantığı aracılığıyla sonuçları şeffaf şekilde belirler. Bu süreç, kriptografik kanıtlar yerine istatistiksel doğrulama ve ekonomik teşviklere dayanır, ancak değerlendirme kriterleri ve sonuçların kamuya açık kaydedilmesinde şeffaflık sağlayan bir mekanizma olarak işlev görür. Öte yandan, NESA, gizlilik korumasını şeffaflıktan çok önceliklendiren bir yapı benimsemektedir. NESA, modeli birden fazla parçaya bölmek için blokzincir tabanlı ardışık sinir ağı shardingi kullanır ve izomorfik şifreleme ile şifreli gömütmeler için izomorfik gizli dağıtım teknikleri uygular; böylece tek bir düğüm modelin tamamını veya tüm veriyi göremez. Bu yaklaşım, tüm modeli sıfırdan eğitmek yerine adaptörler kullanarak verimli parametre ince ayarına odaklanır ve zincir dışı yapılan çıkarım sonuçlarını doğrulayan prosedürlerle gizlilik sınırlarını korumakla karakterize edilir. Ancak, hesaplama süreci şifreli olduğundan, operasyonu doğrudan dışarıdan yeniden üretmek veya doğrulamak zorluğu gibi yapısal bir sınırlama da vardır. DeepNode AI şeffaflığı başka bir yönde ele alıyor. Sistem, hesaplama süreçlerinin kriptografik kanıtları yerine düğümler arasında karşılıklı değerlendirme ve staking üzerine bir pazar mekanizması kullanır. Her akıllı sistem, diğer sistemin çıktı bilgisini değerlendirir ve ödül, kazık ağırlıklı kayıp fonksiyonuna göre dağıtılır. İtibar, tekrarlanan etkileşimlerle oluşur, yanlış gönderimler için cezalar uygulanır ve bu ekonomik baskı katılımcıların davranışlarını hizalamaya hizmet eder. Bu yapı, kriptografik kanıt sunmasa da, katılım motivasyonunu şeffaf bir şekilde ortaya koyacak şekilde güven inşa etmesiyle ayırt edilir. Bu yaklaşımlar bir arada, merkeziyetsiz yapay zeka eğitimi ve doğrulamasında şeffaflığın tek bir kavram olmadığını, çoklu katmanlarda gerçekleştiğini gösteriyor. Gensyn'in Verde'si, bir görevin yerine getirilip yapılmadığını doğrular, Delphi sonuçların performansını doğrular, DeepNode ise katılımcıların katkılarını ve bütünlüğünü farklı şekillerde doğrular; bunların hepsini Nesa süreçte veri ve modellerin maruz kalmasını en aza indirmeye odaklanır. Aynı zamanda gerilim de açık: şifreli hesaplamalar tekrarlanabilirliği ve doğrudan denetlenebilirliği sınırlarken, tam tekrarlanabilirlik gerektiren yapılar çok az veri gizliliği sağlar. Sonuç olarak, mevcut merkeziyetsiz yapay zeka yığını, eğitim verilerinin kökeni ve özgünlüğü, küresel bir ortamda gradyan senkronizasyonu ve farklı ekonomik sistemler arasındaki koordinasyon gibi konuları tam olarak ele almadığı değerlendirilmektedir. Buna rağmen, şeffaf merkeziyetsiz yapay zeka modeli eğitimi ve doğrulamasının hangi yapısal unsurlarının olduğu nispeten açıktır; çünkü hesaplamalı doğrulama, performans değerlendirmesi, ekonomik teşvikler ve gizlilik koruması gibi farklı mekanizmalar doğrulanabilirlik kapsamında şeffaflık sağlar. $NESA