Recent, am furat câteva tweet-uri de la Inference Labs, care au atât de mult sens, modelul AI devine tot mai mare, dar decalajul de verificare devine tot mai adânc. Întregul proces de raționament devine din ce în ce mai opac și nu există nicio modalitate de a verifica de unde provine rezultatul și cum a fost distribuit pas cu pas, iar sentimentul de încredere este în mod natural mult redus, iar sentimentul de încredere este în mod natural mult redus Soluția lor este simplă și directă, dar deosebit de impactantă, adăugând o dovadă criptografică fiecărui output AI, similară cu un hash de tranzacție pe blockchain, care nu poate fi modificat și poate fi verificat oricând. Astfel, conținutul generat de AI nu mai este ceea ce spui, ci poate fi verificat direct prin criptografie Nu acesta este neajunsul pe care web3 trebuie să-l compenseze cel mai mult? Descentralizarea a mutat încrederea de la instituții către mecanismele de cod și criptografie, iar acum că AI va fi implementată la scară largă, dacă va rămâne o cutie neagră, cine îndrăznește să îi predea în siguranță fonduri, date și decizii cheie Cu această dovadă criptografică, autentificarea identității, securitatea și urmărirea responsabilității pot fi implementate cu adevărat pentru a obține un sistem autonom auditabil. Indiferent cât de puternică ar fi AI, trebuie înțeleasă și verificată, altfel, indiferent cât de mare ar fi modelul, va fi doar un generator de minciuni mai rafinat #KaitoYap @KaitoAI #Yap @inference_labs