Робот, который может быть принят всеми, должен сначала пройти проверку! Хирургические роботы сейчас широко доверяются не потому, что они выглядят умными, а потому, что с самого начала их точность была зафиксирована на самом высоком уровне. Каждое движение, каждое решение должны быть полностью контролируемыми и воспроизводимыми, а также должны быть четко подотчетными. С увеличением автономных возможностей этот порог только повысится, а не понизится. Регулирование, проверка безопасности, реальная реализация — никто не примет фразу "в тот момент система определенно была права". В высокорисковых сценариях просто сказать "доверяйте мне" означает немедленно выйти из игры. На самом деле, ключевые вопросы сводятся к нескольким: почему в тот момент было принято такое решение? Использовалась ли модель, которая была заранее заявлена и прошла проверку? Не была ли изменена, понижена или не возникли ли неожиданные отклонения в процессе вывода? Если все это не может быть проверено, о масштабной автономии можно забыть. Ценность Proof of Inference (доказательство вывода) заключается в том, что она не усложняет систему, а позволяет проверять каждое автономное решение в реальном времени, не объясняя это постфактум, а доказывая, что оно действительно следовало установленным правилам и модели в момент принятия решения. Когда автономные системы действительно войдут в такие ключевые области, как медицина, промышленность и общественная безопасность, возможность проверки не будет опцией, которая украшает, а станет основным условием для того, чтобы автономные возможности могли быть надежными.