Nyligen snodde jag några tweets från Inference Labs, som är så logiska, AI-modellen blir större och större, men verifieringsgapet blir allt djupare. Hela resonemangsprocessen blir alltmer otydlig, och det finns inget sätt att verifiera var resultatet kom ifrån och hur det sköts ut steg för steg, och känslan av förtroende minskar naturligtvis kraftigt Deras lösning är enkel och rak, men särskilt effektfull, och lägger till ett kryptografiskt bevis till varje AI-utgång, liknande en transaktionshash på blockkedjan, som inte kan manipuleras och kan verifieras när som helst. På så sätt är AI-genererat innehåll inte längre vad du säger, utan kan verifieras direkt genom kryptografi Är inte detta den brist som web3 mest behöver kompensera för? Decentralisering har flyttat förtroendet från institutioner till kod- och kryptografiska mekanismer, och nu när AI ska implementeras i stor skala, om det fortfarande är en svart låda, vem vågar då säkert överlämna medel, data och viktiga beslut till den Med detta kryptografiska bevis kan identitetsautentisering, säkerhet och ansvarsspårbarhet verkligen implementeras för att uppnå ett granskabart autonomt system. Oavsett hur kraftfull AI är måste den förstås och verifieras, annars kommer modellen bara att bli en mer förfinad lögngenerator oavsett hur stor modellen är #KaitoYap @KaitoAI #Yap @inference_labs