Recentemente, l'attenzione verso @inference_labs è aumentata notevolmente. Non è per il prezzo o per le attività, ma perché hanno iniziato a comparire frequentemente in cerchie che non appartengono al mondo delle criptovalute. Qualche giorno fa ho visto Inference Labs menzionato da media commerciali come 《Entrepreneur》, non per esaltare quanto sia potente l'AI, ma per affrontare una questione molto reale: Quando l'AI inizia a prendere decisioni in modo indipendente, chi è responsabile? Come si può rendere conto? L'articolo usa l'esempio di un aeroporto, un contesto ad alta pressione— coordinamento di più sistemi, rete instabile, nessuno che interviene in tempo reale. In questa situazione, se le conclusioni fornite dall'AI presentano problemi, "il risultato corretto" non è più sufficiente, deve essere in grado di spiegare "perché è stato fatto così". Questo punto colpisce in realtà il più grande tallone d'Achille dell'AI attuale: la maggior parte dei processi di inferenza è una scatola nera. Puoi vedere solo l'output, non puoi vedere il processo, e non puoi verificarlo. Se l'AI genera solo contenuti, il problema non è grande; ma una volta che inizia a essere integrata nella blockchain, a gestire fondi, a eseguire protocolli, a fungere da agente per eseguire transazioni, questa mancanza di trasparenza è quasi mortale. Questo è anche il motivo per cui trovo davvero interessante Inference Labs. Non stanno confrontando parametri di modelli, né stanno esaltando le prestazioni, ma si concentrano su: 👉 Come rendere il processo di inferenza dell'AI "verificabile, auditabile, e responsabile". Recentemente, le loro azioni nell'ecosistema Bittensor si allineano perfettamente a questo punto. In particolare, il lancio di Subnet 2: DSperse. Ciò che fa DSperse è molto diretto: L'inferenza dell'AI non è "fidati di me", ma ogni output porta con sé una prova zk, il processo è registrato sulla blockchain, verificabile e non modificabile. Ancora più importante, i pesi del modello possono essere condivisi in modo crittografato— altri possono utilizzare il tuo modello, ma non possono vedere i tuoi parametri chiave. Questo rappresenta un punto di rottura molto reale per chi lavora realmente sui modelli:...