Recentemente ho visto alcuni tweet di Inference Labs che avevano molto senso: i modelli di AI diventano sempre più grandi, ma il divario di verifica si fa sempre più profondo. L'intero processo di inferenza diventa sempre meno trasparente, non si può verificare da dove provengano le uscite e come siano state ottenute passo dopo passo, quindi la fiducia ne risente notevolmente. La loro soluzione è semplice e diretta, ma particolarmente impattante: aggiungere una prova crittografica a ogni output dell'AI, simile all'hash delle transazioni sulla blockchain, non modificabile e verificabile in qualsiasi momento. In questo modo, il contenuto generato dall'AI non è più semplicemente ciò che dici, ma può essere direttamente verificato tramite mezzi crittografici. Non è proprio questo che manca di più al web3? La decentralizzazione ha già spostato la fiducia dalle istituzioni al codice e ai meccanismi crittografici; ora che l'AI deve essere implementata su larga scala, se rimane una scatola nera, chi avrà il coraggio di affidarle fondi, dati e decisioni chiave? Con questa prova crittografica, l'autenticazione dell'identità, la sicurezza e la responsabilità possono davvero essere realizzate, creando sistemi autonomi auditabili. Anche se le capacità dell'AI sono straordinarie, devono essere comprensibili e verificabili; altrimenti, anche se il modello è grande, rimane solo un generatore di bugie più raffinato. #KaitoYap @KaitoAI #Yap @inference_labs