Robotar som kan accepteras måste verifieras genom erfarenhet! Kirurgiska robotar accepteras inte för att de ser smarta ut, utan för att precision är icke-förhandlingsbar från början. Varje handling, varje dom, måste vara kontrollerbar, reproducerbar och ansvarsfull. När autonomin fortsätter att öka kommer denna standard bara att bli högre, inte lägre. Övervakning, säkerhetsgranskning, klinisk landning, acceptera aldrig en mening där man tror att systemet hade rätt vid tillfället. I en högriskmiljö är "lita på mig" ett ovillkorligt svar i sig. Det verkliga problemet är: Varför fattade systemet det beslutet just då? Är det en deklarerad modell? Har resonemangsprocessen manipulerats eller försämrats? Om dessa inte kan verifieras kan autonomin inte skalas. Betydelsen av Proof of Inference finns här. Det handlar inte om att göra systemet mer komplext, utan om att göra varje autonomt beslut verifierbart. Istället för att förklara i efterhand kan det bevisas att den faktiskt har skett enligt reglerna när en åtgärd sker. När autonoma system går in i nyckelområden som sjukvård, industri och allmän säkerhet är verifiering inte längre ett extra alternativ, utan en förutsättning för autonomi. #KaitoYap @KaitoAI #Yap @inference_labs