Pe măsură ce modelul devine mai mare și mai capabil, apare o problemă care devine tot mai evidentă, iar viteza verificării nu poate ține pasul cu complexitatea și viteza inferenței Când procesul de raționament devine tot mai asemănător unei cutii negre, sursa modelului este neclară, iar calea de execuție nu poate fi reprodusă complet, încrederea începe să cedeze. Nu pentru că trebuie să fie greșit, ci pentru că pur și simplu nu putem dovedi că este corect Aceasta se numește gol de verificare. AI-ul nu este suficient de inteligent, dar nu are o modalitate fiabilă ca toată lumea să confirme de la ce model provine rezultatul, în ce mediu și dacă a fost executat strict conform regulilor Ceea ce vrea Inference Labs este de fapt destul de simplu, făcând ca fiecare ieșire AI să vină cu o amprentă digitală criptată. Nu este o explicație după fapt, nici nu se bazează pe garanția producătorului, ci un certificat pe care oricine îl poate verifica și verifica permanent, iar identitatea, sursa și integritatea execuției sunt toate blocate în momentul ieșirii Doar atunci când sistemul este auditabil poate fi cu adevărat de încredere, iar doar atunci când încrederea este demonstrabilă, inteligența artificială autonomă poate fi implementată în siguranță la scară largă. Aceasta este direcția în care merg #KaitoYap @KaitoAI #Yap @inference_labs