Nylig har det vært en merkbar økning i oppmerksomheten rundt @inference_labs. Det er ikke på grunn av pris eller aktivitet, men fordi de begynner å dukke opp ofte i små kretser som ikke tilhører kryptokretsen. For noen dager siden så jeg Inference Labs bli omtalt separat av forretningsmedier som «Entrepreneur», og temaet handler ikke om hvor sterk AI er, men om et veldig reelt spørsmål: Når AI begynner å ta beslutninger uavhengig, hvem vil ha ansvaret? Hvordan holde seg ansvarlig? Artikkelen bruker høyspentscenarier som flyplasser som eksempel – Samarbeid mellom flere systemer, nettverksustabilitet og ubemannet sanntidsintervensjon. I dette tilfellet, hvis noe går galt med konklusjonen gitt av AI, «Resultatet er riktig» er ikke lenger nok, det må kunne forklare «hvorfor det gjøres». Dette treffer faktisk den største svakheten ved AI nå: De fleste resonnementsprosesser er svarte bokser. Du kan bare se utgangen, ikke prosessen, og du kan ikke verifisere det. Hvis AI bare genererer innhold, er det ikke et stort problem; Men når du begynner å gå på kjeden, forvalte midler, kjøre protokoller, og når agenten automatisk utfører transaksjoner, Denne opasiteten er nesten dødelig. Det er det jeg synes er veldig interessant med Inference Labs. De sammenligner ikke modellparametere eller blåseytelse. Fokuser heller på: 👉 Hvordan gjøre AIs resonnementsprosess til et «verifiserbart, reviderbart og ansvarlig» faktum. Deres nylige handlinger i Bittensor-økosystemet er faktisk på dette punktet. Spesielt lanseringen av Subnet 2: DSperse. Det DSperse gjør er rett frem: AI-resonnement er ikke «stol på meg». I stedet kommer hvert utgangspunkt med et zk-bevis, Prosessen er på kjeden, verifiserbar og ikke-manipulasjonssikker. Viktigere er det at modellvekter også kan deles kryptert—— Andre kan bruke modellen din, men de kan ikke se kjerneparametrene dine. Dette er et veldig realistisk bristepunkt for de som virkelig lager modeller:...