Jak model roste a získává větší schopnosti, objevuje se stále zřetelnější problém a rychlost ověřování vůbec nedokáže držet krok s složitostí a rychlostí inference Když se proces uvažování stává stále více černou skříňkou, zdroj modelu je nejasný a cesta provedení nemůže být plně reprodukována, důvěra začíná selhávat. Ne proto, že by to muselo být špatné, ale protože prostě nemůžeme dokázat, že je správné Tomu se říká mezera v ověřování. AI není dostatečně chytrá, ale postrádá spolehlivý způsob, jak by každý mohl potvrdit, z jakého modelu výstup pochází, v jakém prostředí a zda byl striktně proveden podle pravidel Inference Labs chce vlastně docela přímočaré – aby každý výstup AI měl zašifrovaný digitální otisk prstu. Nejde o vysvětlení dodatečně, ani se nespoléhá na záruku výrobce, ale o certifikát, který může kdokoli ověřit a trvale ověřit, a identita, zdroj i integrita provedení jsou v okamžiku výstupu uzamčeny Pouze když je systém auditovatelný, lze mu skutečně důvěřovat, a pouze když je důvěra prokazatelná, lze autonomní AI bezpečně implementovat ve velkém měřítku. To je směr, kterým se ubírají #KaitoYap @KaitoAI #Yap @inference_labs