Nyligen har det skett en märkbar ökning av uppmärksamheten kring @inference_labs. Det beror inte på pris eller aktivitet, utan för att de börjar dyka upp ofta i små kretsar som inte tillhör kryptokretsen. För några dagar sedan såg jag att Inference Labs diskuterades separat av affärsmedier som "Entrepreneur", och ämnet är inte hur stark AI är, utan en mycket verklig fråga: När AI börjar fatta beslut självständigt, vem kommer då att ha ansvaret? Hur håller man ansvarig? Artikeln använder högspänningsscenarier som flygplatser som exempel - Multisystemsamarbete, nätverksinstabilitet och obemannad realtidsintervention. I detta fall, om något går fel med slutsatsen som AI:n ger, "Resultatet är korrekt" räcker inte längre, det måste kunna förklara "varför det görs". Detta träffar faktiskt AI:ns största svaghet nu: De flesta resonemangsprocesser är svarta lådor. Du kan bara se utdatan, inte processen, och du kan inte verifiera det. Om AI bara genererar innehåll är det inget stort problem; Men när du väl börjar gå in i kedjan, hantera medel, köra protokoll, och när agenten automatiskt utför transaktioner, Denna opacitet är nästan dödlig. Det är det jag tycker är riktigt intressant med Inference Labs. De jämför inte modellparametrar eller blåsprestanda. Fokusera istället på: 👉 Hur man gör AI:s resonemangsprocess till en "verifierbar, granskabar och ansvarsskyldig" fakta. Deras senaste handlingar i Bittensor-ekosystemet är faktiskt på denna punkt. Speciellt lanseringen av Subnet 2: DSperse. Det DSperse gör är enkelt: AI:s resonemang är inte "lita på mig", Istället kommer varje utgång med ett zk-bevis, Processen är on-chain, verifierbar och icke-manipulationssäker. Viktigare är att modellvikter också kan delas krypterade—— Andra kan använda din modell, men de kan inte se dina kärnparametrar. Detta är en mycket realistisk brytpunkt för dem som verkligen tillverkar modeller:...