Un robot che può essere accettato da tutti deve prima superare la verifica! Il motivo per cui i robot chirurgici sono già ampiamente fidati non è perché sembrano molto intelligenti, ma perché fin dall'inizio, la precisione è stata mantenuta ai massimi standard. Ogni movimento, ogni giudizio deve essere completamente controllabile e ripetibile, e deve poter essere chiaramente responsabilizzato. Con l'aumento delle capacità autonome, questa soglia diventerà solo più alta, non più bassa. Regolamentazione, revisione della sicurezza, attuazione pratica, nessuno accetterà una frase del tipo "il sistema era sicuramente corretto all'epoca". In scenari ad alto rischio, dire semplicemente "fidati di me" significa essere esclusi direttamente. I veri problemi critici sono questi: perché ha preso quella decisione in quel momento? È stato utilizzato il modello che era stato dichiarato in anticipo e approvato? Il processo di inferenza è stato manomesso, degradato o ha mostrato deviazioni inaspettate? Se non si possono verificare queste cose, non si può pensare a una grande diffusione delle capacità autonome. Il valore della Proof of Inference sta proprio qui: non rende il sistema più complesso, ma consente che ogni decisione autonoma possa essere verificata in tempo reale, non è una spiegazione posteriore, ma nel momento in cui viene presa la decisione, si può dimostrare che ha seguito onestamente le regole e il modello stabiliti. Quando i sistemi autonomi entreranno realmente in settori critici come la medicina, l'industria e la sicurezza pubblica, la verificabilità non sarà un'opzione di lusso, ma il presupposto fondamentale per stabilire se le capacità autonome possono reggere.