Avec l'augmentation de la taille et des capacités des modèles, un problème devient de plus en plus évident : la vitesse de vérification ne suit pas du tout la complexité et la rapidité de l'inférence. Lorsque le processus d'inférence devient de plus en plus opaque, que l'origine du modèle est floue et que le chemin d'exécution ne peut pas être reproduit intégralement, la confiance commence à poser problème. Ce n'est pas parce qu'il est nécessairement erroné, mais parce que nous ne pouvons tout simplement pas prouver qu'il ne l'est pas. C'est ce qu'on appelle le fossé de vérification (verification gap). L'IA n'est pas trop intelligente, mais elle manque d'un moyen fiable permettant à chacun de confirmer d'où provient cette sortie, dans quel environnement elle a été exécutée et si elle a été strictement conforme aux règles. Ce qu'Inference Labs souhaite faire est en fait assez direct : faire en sorte que chaque sortie d'IA soit accompagnée d'une empreinte numérique cryptée. Ce n'est pas une explication a posteriori, ni une simple promesse de la part du fournisseur, mais une preuve que tout le monde peut vérifier par soi-même, consultable de manière permanente, avec l'identité, l'origine et l'intégrité de l'exécution, tout cela verrouillé au moment de la sortie. Ce n'est qu'en rendant le système auditable qu'il pourra vraiment être digne de confiance, et ce n'est que si la confiance est prouvable que l'IA autonome pourra être déployée en toute sécurité à grande échelle. C'est la direction qu'ils promeuvent.