Modele stają się coraz większe, a ich możliwości rosną, ale jest jeden problem, który również się powiększa! Weryfikacja nie nadąża za szybkością i złożonością wnioskowania. Gdy proces wnioskowania staje się coraz mniej przejrzysty, źródło modelu staje się coraz bardziej niejasne, a ścieżka wykonania nie może być odtworzona, zaufanie naturalnie się załamuje. Nie dlatego, że system zawodzi, ale dlatego, że nikt nie może udowodnić, że nie zawiódł. To jest istota "luki w weryfikacji". To nie to, że AI nie jest wystarczająco zaawansowane, ale brakuje sposobu, aby potwierdzić, z jakiego modelu pochodzi każdy wynik, w jakich warunkach i czy został wykonany zgodnie z oczekiwanymi zasadami. Wizja Inference Labs jest w rzeczywistości bardzo prosta. Każdy wynik AI powinien mieć swój własny zaszyfrowany odcisk palca. Nie jest to późniejsze wyjaśnienie, ani nie jest to poparcie producenta, ale dowód, który każdy może niezależnie zweryfikować i który można śledzić przez długi czas. Tożsamość, źródło, integralność wykonania powinny być zablokowane w momencie powstania wyniku. To jest podstawa audytowalnej autonomii; gdy system może być weryfikowany, może być zaufany; gdy zaufanie ma charakter dowodowy, autonomiczne systemy mogą naprawdę przejść do skali. To jest przyszłość, którą budują!