Baru-baru ini, saya menggesek beberapa tweet dari Inference Labs, yang sangat masuk akal, model AI semakin besar, tetapi kesenjangan verifikasi semakin dalam. Seluruh proses penalaran menjadi semakin buram, dan tidak ada cara untuk memverifikasi dari mana output berasal dan bagaimana itu didorong keluar selangkah demi selangkah, dan rasa kepercayaan secara alami sangat berkurang Solusi mereka sederhana dan lugas, namun sangat berdampak, menambahkan bukti kriptografi ke setiap output AI, mirip dengan hash transaksi di blockchain, yang tidak dapat dirusak dan dapat diverifikasi kapan saja. Dengan cara ini, konten yang dihasilkan AI tidak lagi seperti yang Anda katakan, tetapi dapat langsung diverifikasi melalui kriptografi Bukankah ini kekurangan yang paling perlu ditebus oleh web3? Desentralisasi telah mengalihkan kepercayaan dari institusi ke mekanisme kode dan kriptografi, dan sekarang AI akan diterapkan dalam skala besar, jika masih kotak hitam, siapa yang berani menyerahkan dana, data, dan keputusan kunci dengan aman kepadanya Dengan bukti kriptografi ini, otentikasi identitas, keamanan, dan ketertelusuran akuntabilitas dapat benar-benar diterapkan untuk mencapai sistem otonom yang dapat diaudit. Tidak peduli seberapa kuat AI, itu harus dipahami dan diverifikasi, jika tidak, tidak peduli seberapa besar modelnya, itu hanya akan menjadi generator kebohongan yang lebih halus #KaitoYap @KaitoAI #Yap @inference_labs