Saat model menjadi lebih besar dan lebih mampu, ada masalah yang menjadi semakin jelas, dan kecepatan verifikasi tidak dapat mengimbangi kompleksitas dan kecepatan inferensi sama sekali Ketika proses penalaran menjadi semakin seperti kotak hitam, sumber model tidak jelas, dan jalur eksekusi tidak dapat direproduksi sepenuhnya, kepercayaan mulai gagal. Bukan karena itu pasti salah, tetapi karena kita tidak dapat membuktikannya benar Ini disebut celah verifikasi. AI tidak cukup pintar, tetapi tidak memiliki cara yang andal bagi semua orang untuk mengonfirmasi dari model mana keluaran berasal, di lingkungan apa, dan apakah itu dieksekusi secara ketat sesuai dengan aturan Apa yang ingin dilakukan Inference Labs sebenarnya cukup mudah, membuat setiap output AI dilengkapi dengan sidik jari digital terenkripsi. Ini bukan penjelasan setelah fakta, juga tidak bergantung pada jaminan pabrikan, tetapi sertifikat yang dapat diverifikasi dan diverifikasi secara permanen oleh siapa pun, dan identitas, sumber, dan integritas eksekusi semuanya dikunci pada saat output Hanya ketika sistem dapat diaudit, AI otonom dapat diimplementasikan dengan aman dalam skala besar. Itulah arah yang mereka dorong #KaitoYap @KaitoAI #Yap @inference_labs