Etter hvert som modellen blir større og mer kapabel, oppstår det et problem som blir mer og mer åpenbart, og verifiseringshastigheten kan ikke holde tritt med kompleksiteten og hastigheten i slutningen i det hele tatt Når resonnementsprosessen blir mer og mer som en svart boks, kilden til modellen er uklar, og kjørebanen ikke kan gjenskapes fullt ut, begynner tilliten å svikte. Ikke fordi det må være galt, men fordi vi rett og slett ikke kan bevise at det er riktig Dette kalles verifiseringsgapet. AI er ikke smart nok, men mangler en pålitelig måte for alle å bekrefte hvilken modell resultatet kom fra, i hvilket miljø, og om det ble utført strengt etter reglene Det Inference Labs ønsker å gjøre er faktisk ganske enkelt, nemlig at hver AI-utgang skal leveres med et kryptert digitalt fingeravtrykk. Det er ikke en forklaring i etterkant, og det baserer seg heller ikke på produsentens garanti, men et sertifikat som hvem som helst kan verifisere og permanent verifisere, og identitet, kilde og utførelsesintegritet er alle låst i utdataøyeblikket Bare når systemet er reviderbart kan det virkelig stoles på, og bare når tilliten er bevisbar kan autonom KI trygt implementeres i stor skala. Det er den retningen de presser på #KaitoYap @KaitoAI #Yap @inference_labs