Modelul devine mai mare, abilitatea devine mai puternică, dar există o problemă care se mărește în același timp! Verificarea nu ține pasul cu viteza și complexitatea inferenței. Pe măsură ce procesul de inferență devine tot mai opac, sursa modelului devine neclară, calea de execuție nu poate fi recuperată, iar încrederea se prăbușește în mod natural. Nu pentru că sistemul ar greși, ci pentru că nimeni nu poate dovedi că nu este greșit. Aceasta este esența "golului de verificare". Nu este vorba că AI nu este suficient de avansată, ci că nu există o modalitate de a confirma exact din ce model provine fiecare rezultat, în ce condiții și care funcționează conform regulilor așteptate. Viziunea Inference Labs este simplă. Fiecare ieșire AI ar trebui să poarte propria amprentă criptată. Nu este o explicație după fapt, nici nu este aprobată de producător, ci un certificat pe care oricine îl poate verifica și urmări independent pentru mult timp. Identitatea, proveniența și integritatea execuției ar trebui toate blocate în momentul în care rezultatul este generat. Aceasta este baza autonomiei auditabile, când sistemul poate fi verificat, poate fi de încredere; Când încrederea este dovedită, sistemele autonome pot avansa cu adevărat spre scară. Acesta este viitorul pe care îl construiesc! #KaitoYap @KaitoAI #Yap @inference_labs