Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Transparente, dezentrale KI-Modelltraining- und Validierungsstruktur
@gensynai , @nesaorg , @DeepNodeAI
Bei der Ausbildung und Validierung von KI-Modellen in einer dezentralen Umgebung ist die erste Überlegung, dass man nicht davon ausgehen kann, dass alle Teilnehmer immer ehrlich handeln. In der Praxis zeigen Forschungs- und Betriebsfälle, dass Berechnungs-Knoten unberechtigte Ergebnisse zurückgeben, um die Betriebskosten zu senken, was als Schmarotzertum bezeichnet wird, oder dass es zu Datenvergiftungen durch böswillige Einfügungen von Trainingsdaten kommt, manipulierte Abschlussformulierungen im Verstärkungslernprozess eingereicht werden, statistisch nicht erkennbare Gradient-Manipulationen stattfinden und mehrere Knoten sich zusammenschließen, um die Konsensstruktur zu verzerren. Diese Risikofaktoren sind der Ausgangspunkt, um zu erklären, warum Mechanismen zur technischen Gewährleistung von Transparenz und Vertrauen notwendig sind.
Um auf dieses Problem zu reagieren, schlägt Gensyn eine ausführungsgestützte Struktur vor, die die Berechnung selbst zum Prüfgegenstand macht. In dieser Struktur wird die maschinelle Lernaufgabe in reproduzierbare, operationale, deterministische Berechnungsgraphen zerlegt, und es wird sichergestellt, dass dieselben Operationen in unterschiedlichen Hardware-Umgebungen bis auf Bit-Ebene identisch reproduziert werden. Das Verde-Protokoll kombiniert Schiedsgerichtsbarkeit und ein binäres Spiel, um den ersten Berechnungspunkt zu finden, an dem die Ergebnisse abweichen, und führt nur die Teile der Berechnung erneut aus, in denen ein Streit aufgetreten ist, um die Effizienz zu wahren. Wirtschaftliche Anpassungen werden in einem Ethereum-basierten Rollup verarbeitet, und die tatsächlichen großangelegten Berechnungen werden off-chain durchgeführt, wobei das zentrale Merkmal darin besteht, dass die Genauigkeit der Ergebnisse kryptographisch garantiert ist, solange mindestens ein ehrlicher Knoten vorhanden ist.
Innerhalb desselben Stacks übernimmt Gensyns Delphi die Rolle der Validierung, wie gut das Ergebnismodell funktioniert, anstatt wie die Berechnung durchgeführt wurde. Delphi strukturiert die Leistungsbewertung des Modells in Form eines Vorhersagemarktes, in dem die Teilnehmer auf die Leistungsergebnisse wetten und die Ergebnisse durch On-Chain-Entscheidungslogik transparent festgelegt werden. Dieser Prozess basiert eher auf statistischer Validierung und wirtschaftlichen Anreizen als auf kryptographischen Beweisen, fungiert jedoch als Mechanismus, der Transparenz bietet, da die Bewertungskriterien und Ergebnisse öffentlich aufgezeichnet werden.
Im Gegensatz dazu priorisiert Nesa den Schutz der Privatsphäre über Transparenz. Nesa teilt das Modell in mehrere Teile auf und platziert es durch blockchain-basierte sequenzielle neuronale Netzwerk-Sharding, wobei isomorphe Verschlüsselung und homomorphe geheime Verteilungstechniken auf verschlüsselte Einbettungen angewendet werden, sodass kein einzelner Knoten das gesamte Modell oder die gesamten Daten sehen kann. Dieser Ansatz konzentriert sich auf eine parameter-effiziente Feinabstimmung unter Verwendung von Adaptern, anstatt das gesamte Modell von Grund auf zu trainieren, und bewahrt die Privatsphäre durch einen Prozess, der die Ergebnisse der Off-Chain-Inferenz On-Chain validiert. Es wird jedoch auch eine strukturelle Einschränkung beobachtet, da der Berechnungsprozess verschlüsselt ist, was es schwierig macht, die Berechnungen von außen direkt zu reproduzieren oder zu validieren.
DeepNode AI behandelt Transparenz aus einer anderen Perspektive. Dieses System nutzt einen Marktmechanismus, der auf gegenseitiger Bewertung und Staking zwischen den Knoten basiert, anstatt kryptographische Beweise für den Berechnungsprozess zu liefern. Jedes intelligente System bewertet die Ausgabedaten anderer Systeme, und die Belohnungen werden gemäß einer gewichteten Verlustfunktion verteilt. In wiederholten Interaktionen bildet sich ein Ruf, und falsche Einreichungen werden bestraft, wobei dieser wirtschaftliche Druck dazu beiträgt, das Verhalten der Teilnehmer auszurichten. Diese Struktur bietet zwar keine kryptographischen Beweise, unterscheidet sich jedoch dadurch, dass sie die Teilnahmeanreize transparent offenlegt und Vertrauen aufbaut.
Zusammenfassend lässt sich sagen, dass die Transparenz im dezentralen KI-Training und in der Validierung kein einheitliches Konzept ist, sondern auf mehreren Ebenen realisiert wird. Gensyns Verde validiert die Durchführung der Aufgaben, Delphi die Leistung der Ergebnisse, DeepNode die Beiträge und Integrität der Teilnehmer, während Nesa sich darauf konzentriert, die Exposition von Daten und Modellen in all diesen Prozessen zu minimieren. Gleichzeitig wird deutlich, dass verschlüsselte Berechnungen die Reproduzierbarkeit und direkte Prüfbarkeit einschränken und eine Struktur, die vollständige Reproduzierbarkeit erfordert, kaum Datenschutz bietet.
Infolgedessen wird der aktuelle dezentrale KI-Stack als nicht in der Lage angesehen, Probleme wie die Herkunft und Echtheit der Trainingsdaten, die Gradientensynchronisation in globalen Umgebungen und die Koordination zwischen verschiedenen Wirtschaftssystemen vollständig zu lösen. Dennoch bieten verschiedene Mechanismen wie Berechnungsvalidierung, Leistungsbewertung, wirtschaftliche Anreize und Datenschutz jeweils Transparenz im verifizierbaren Rahmen, was relativ klar macht, aus welchen strukturellen Elementen sich das transparente dezentrale KI-Modelltraining und die Validierung zusammensetzen.



Top
Ranking
Favoriten
