Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Validatie van gegevens in gedecentraliseerde AI-computing: drie benaderingen om integriteit in een gedistribueerde omgeving te waarborgen
@OpenledgerHQ , @gensynai , @OpenGradient
Gedecentraliseerde AI-computing is een structuur waarbij meerdere deelnemers gegevens en berekeningen delen, waardoor het waarborgen van vertrouwen een belangrijker probleem wordt dan bij de traditionele methoden die afhankelijk zijn van centrale servers. In dit verband worden OpenLedger, Gensyn en OpenGradient geïntroduceerd als projecten die verantwoordelijk zijn voor validatie in verschillende fasen: gegevens, leren en inferentie.
Gensyn streeft naar een gedistribueerd leer netwerk dat inactieve rekenbronnen van over de hele wereld verzamelt om AI-modellen te trainen. Het biedt leermethoden met lage communicatie, zoals NoLoCo, en fouthersteltechnieken zoals CheckFree, zodat leren mogelijk is in omgevingen met trage communicatie en verschillende apparaatspecificaties. Tegelijkertijd valideert het via het Verde-protocol of de leerberekeningen correct zijn uitgevoerd, en als de resultaten verschillen, wordt alleen de specifieke rekenfase opnieuw uitgevoerd zonder de hele training opnieuw te draaien. Hiervoor wordt de RepOps-bibliotheek gebruikt om determinisme af te dwingen, zodat dezelfde rekenresultaten op verschillende hardware worden verkregen. Deze validatie controleert echter alleen de nauwkeurigheid van de berekeningen voor de gegeven invoer en kan niet automatisch bepalen of de gegevens die voor de training zijn gebruikt vooraf zijn besmet.
OpenLedger richt zich op het volgen van de oorsprong en wijzigingsgeschiedenis van de gegevens die voor de training worden gebruikt. Gegevensbijdragers dienen bestanden in een vastgesteld formaat in bij Datanet, en deze bijdragen worden on-chain geregistreerd, zodat kan worden gecontroleerd wanneer welke gegevens in welke versie zijn gebruikt. Er zijn beperkingen aan de bestandsgrootte en uploadfrequentie, en het is ontworpen om goedkeurings- en versiebeheerprocessen te doorlopen om de ongebreidelde instroom van gegevens te verminderen. Een structuur die kwaadaardige of dubbele bijdragen onderdrukt via kwaliteitsbeoordeling en staking-gebaseerde straffen, maakt duidelijk dat het doel is om de verantwoordelijkheid en traceerbaarheid van gegevensbijdragen te waarborgen.
OpenGradient is verantwoordelijk voor de laag die controleert of het model dat is getraind daadwerkelijk de inferentie correct uitvoert. Het laat cryptografische bewijzen of hardware-gebaseerde bewijzen achter samen met de inferentieresultaten en registreert deze in de Gradient Ledger, zodat de resultaten achteraf kunnen worden gecontroleerd. Om de prestatiebelasting te verminderen, worden zware berekeningen parallel off-chain verwerkt, terwijl de on-chain alleen de resultaten en bewijzen valideert. De validatiemethoden worden onderscheiden en beschreven, waaronder ZKML, dat hoge garanties biedt maar hoge rekenkosten met zich meebrengt, TEE, dat bijna geen prestatiebelasting heeft maar afhankelijk is van hardwarevertrouwen, en de Vanilla-methode, waarbij validatie wordt overgeslagen.
Samenvattend blijkt dat OpenLedger registreert welke gegevens zijn binnengekomen, Gensyn bevestigt of het leren met die gegevens correct is uitgevoerd op rekenniveau, en OpenGradient valideert of het getrainde model de inferentie correct heeft uitgevoerd. Echter, op 1 januari 2026 zijn deze fasen nog niet verbonden in één officiële technische pijplijn, en er is geen standaard gepresenteerd die de bewijsvoering van gegevensbronnen, leervalidatie en inferentievalidatie in één aaneengeschakelde bewijs keten verbindt.
Uiteindelijk kan de huidige validatie van gedecentraliseerde AI-gegevens worden begrepen als een staat waarin verschillende lagen van apparaten, met elk duidelijke rollen en beperkingen, parallel ontwikkelen, in plaats van een systeem dat "alles in één keer perfect garandeert" met gegevensregistratie, validatie van leerberekeningen en validatie van inferentie.



Boven
Positie
Favorieten
