AI yang tidak dapat diverifikasi adalah risiko perusahaan Itu sebabnya NEAR AI bergabung dengan Program Awal NVIDIA penting. Ini bukan tentang branding atau kredit akselerasi. Ini tentang akses ke infrastruktur yang memungkinkan AI tingkat perusahaan yang dapat diverifikasi, khususnya melalui NVIDIA Confidential Computing. ✦ Inilah masalah intinya. Sebagian besar sistem AI melindungi data saat tidak aktif dan dalam perjalanan. Tetapi setelah eksekusi dimulai, model dan input berada dalam memori yang biasanya dapat diakses oleh sistem operasi host atau infrastruktur yang mendasarinya. Itulah kesenjangan kepercayaan. ✦ NVIDIA Confidential Computing mengubah model eksekusi ini. Dalam tumpukan NEAR AI, beban kerja berjalan di dalam lingkungan yang terisolasi perangkat keras di mana memori tetap dienkripsi selama eksekusi, dan eksekusi itu sendiri dapat diverifikasi secara kriptografis. Ini bukan hanya enkripsi. Ini adalah komputasi yang aman dengan jaminan 🔒 privasi yang dapat diverifikasi 🔗 Baca lebih lanjut di sini: