С увеличением размеров моделей и их возможностей становится все более очевидной одна проблема: скорость верификации совершенно не успевает за сложностью и скоростью вывода. Когда процесс вывода становится все более похожим на черный ящик, источник модели неясен, а путь выполнения невозможно полностью воспроизвести, доверие начинает вызывать проблемы. Не потому, что он обязательно ошибается, а потому, что мы просто не можем доказать, что он не ошибается. Это называется разрывом верификации (verification gap). AI не недостаточно умен, а просто ему не хватает надежного способа, чтобы каждый мог подтвердить, от какой модели исходит этот вывод, в какой среде он выполнялся и соблюдались ли строгие правила. Inference Labs на самом деле хочет сделать довольно простую вещь: чтобы каждый вывод AI имел за собой зашифрованный цифровой отпечаток. Это не послесловие, не просто слова от производителя, а доказательство, которое любой может проверить самостоятельно и которое будет доступно навсегда, с идентичностью, источником и целостностью выполнения, все это будет зафиксировано в момент вывода. Только обеспечив возможность аудита, система сможет действительно заслужить доверие, и только если доверие можно доказать, автономный AI сможет безопасно внедряться в широком масштабе. Это направление, которое они продвигают.