Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Decentrale AI-computing en datavalidatie: een structurele transitie naar volmaakte kunstmatige intelligentie
@OpenledgerHQ , @gensynai , @OpenGradient
Decentrale AI-computing biedt een totaal andere oplossing voor de vraag hoe kunstmatige intelligentie wordt gemaakt en gevalideerd. In een gecentraliseerde omgeving is de beoordeling van de herkomst van data, de nauwkeurigheid van het leerproces en de betrouwbaarheid van de inferentieresultaten afhankelijk van het interne beheer, documentatie en audits van specifieke organisaties. In een decentrale structuur ligt de basis van dit vertrouwen niet bij de organisatie, maar bij de technologie zelf, waarbij de volledige cyclus van kunstmatige intelligentie - data, berekeningen en inferenties - wordt behandeld als afzonderlijke verifieerbare lagen.
Het startpunt van deze structuur is de leerdata. Kunstmatige intelligentiemodellen worden opgebouwd uit grote hoeveelheden data, maar in traditionele omgevingen is het moeilijk om de herkomst en de wijzigingsgeschiedenis van de data extern te verifiëren. OpenLedger speelt een rol in het oplossen van dit probleem door de integriteit en herkomst van data te traceren. Bij OpenLedger wordt data niet alleen opgeslagen, maar wordt ook duidelijk vastgelegd wie de data heeft verstrekt en met welk doel en in welke context. Data wordt geregistreerd in een datanet dat per domein is samengesteld, en elke bijdrage wordt samen met versie-informatie on-chain vastgelegd. Hierdoor ontstaat een structuur waarmee kan worden getraceerd welke data daadwerkelijk zijn gebruikt voor de training van specifieke modellen en welke invloed deze data op de resultaten heeft gehad. Dit proces voorkomt dat data in een black box verdwijnen en laat de relatie tussen data en modelprestaties als verifieerbare feiten achter.
Wanneer de data is voorbereid, is de volgende stap de computing resources die de daadwerkelijke training uitvoeren. Gensyn biedt een decentrale computingnetwerk dat ongebruikte computing resources over de hele wereld verbindt voor kunstmatige intelligentietraining. De kern hiervan is niet alleen het verdelen van berekeningen, maar ook het bewijzen dat deze berekeningen correct zijn uitgevoerd. Gensyn bevestigt de legitimiteit van het trainingsproces via het Verde-verificatieprotocol. Leeropdrachten worden gedelegeerd aan verschillende deelnemers, en als er meningsverschillen over de resultaten ontstaan, wordt een methode gebruikt om de foutlocaties te identificeren zonder het hele proces opnieuw te berekenen. Dit wordt mogelijk gemaakt door een reproduceerbare operatorstructuur die ervoor zorgt dat dezelfde berekeningsresultaten op verschillende hardware worden verkregen door de volgorde van berekeningen strikt vast te leggen. Hierdoor kan de consistentie van de leerresultaten in een decentrale omgeving worden bevestigd en worden de verificatiekosten geminimaliseerd.
Deze structuur heeft ook duidelijke kenmerken op het gebied van kosten en toegankelijkheid. Training met high-performance GPU's in gecentraliseerde cloudomgevingen vereist hoge kosten, maar Gensyn streeft ernaar om dezelfde niveaus van berekeningen tegen lagere kosten te bieden door gebruik te maken van ongebruikte resources. Tegelijkertijd wordt de verificatie of de berekeningen daadwerkelijk zijn uitgevoerd, afgehandeld door cryptografische procedures en game-gebaseerde verificatie, waardoor het niet alleen een eenvoudige verklaring van vertrouwen is, maar wordt vervangen door een bevestiging met technische onderbouwing.
Zelfs na de training eindigt de verificatie niet. Wanneer het model daadwerkelijk inferenties uitvoert, is er een proces nodig om te bevestigen of de resultaten correct zijn. OpenGradient is verantwoordelijk voor de verificatie in deze inferentiefase. In de structuur van OpenGradient wordt de kunstmatige intelligentie-inferentie uitgevoerd binnen blockchain-transacties, en de inferentieresultaten worden bevestigd volgens de gekozen verificatiemethode. De krachtigste methode is het wiskundig bewijzen van de nauwkeurigheid van de berekeningen via zero-knowledge proofs, en er worden ook methoden gebruikt die gebruikmaken van hardware-gebaseerde vertrouwde uitvoeringsomgevingen. In relatief risicoloze situaties kan een eenvoudige methode die afhankelijk is van cryptoeconomische beveiliging worden toegepast. Deze verschillende methoden worden gekozen op basis van de belangrijkheid, kosten en prestatie-eisen van de inferentie.
Een kenmerk van OpenGradient is dat het inferentieproces niet geheimzinnig buiten de keten wordt behandeld, maar wordt behandeld als een onderdeel van de blockchain-statusovergang. Modelbestanden worden opgeslagen in gedistribueerde opslag, en inferentieverzoeken en -resultaten worden verbonden via duidelijke identificatoren. Hierdoor kan achteraf worden bevestigd welk model welke uitvoer heeft gegenereerd met welke verificatiemethode voor een specifieke invoer. De inferentieresultaten worden vastgelegd als verifieerbare producten van berekeningen, niet als eenvoudige uitvoerwaarden.
Op deze manier nemen OpenLedger, Gensyn en OpenGradient elk een rol op zich in de verschillende fasen van data, training en inferentie. In de datastap worden herkomst en bijdragen getraceerd, in de trainingsfase wordt de nauwkeurigheid van de berekeningen geverifieerd, en in de inferentiefase wordt de legitimiteit van de resultaten bewezen. Deze drie lagen zijn niet in een enkel geïntegreerd systeem samengevoegd, maar vormen functioneel een aaneengeschakelde verificatiekette. De structuur is ontworpen om ervoor te zorgen dat geen enkele fase ondoorzichtig blijft.
Deze structuur voor datavalidatie in decentrale AI-computing toont een verandering in de manier waarop kunstmatige intelligentie betrouwbaarder kan worden gemaakt. Terwijl de basis van vertrouwen verschuift van de reputatie van bedrijven of interne controle naar technische bewijzen, worden kunstmatige intelligentsystemen structureel ingebouwd met uitlegbaarheid en verantwoordelijkheid. Een omgeving waarin kan worden bevestigd waar de data vandaan komt, hoe de training heeft plaatsgevonden en of de inferentie nauwkeurig was, maakt het mogelijk om kunstmatige intelligentie niet als een ondoorzichtig hulpmiddel, maar als een verifieerbaar berekeningssysteem te behandelen. Dit laat zien dat decentralisatie verder gaat dan eenvoudige distributie en de structuur van vertrouwen in kunstmatige intelligentie zelf herstructureert.
$OPEN



Boven
Positie
Favorieten
