Les robots acceptables doivent être capables de subir une validation ! Le fait que les robots chirurgicaux puissent être acceptés n'est pas dû à leur apparence intelligente, mais parce que la précision ne peut être compromise dès le départ. Chaque mouvement, chaque jugement, doit être contrôlable, reproductible et imputable. À mesure que l'autonomie continue d'augmenter, cette norme ne fera que s'élever, et non s'abaisser. La réglementation, les examens de sécurité, la mise en œuvre clinique, n'acceptent jamais une simple affirmation selon laquelle le système était correct à ce moment-là. Dans un environnement à haut risque, "croyez-moi" est en soi une réponse inacceptable. La véritable question est : Pourquoi le système a-t-il pris cette décision à ce moment-là ? Le modèle utilisé a-t-il été déclaré ? Le processus de raisonnement a-t-il été altéré ou dégradé ? Si ces éléments ne peuvent pas être vérifiés, l'autonomie ne peut pas être mise à l'échelle. La signification de la Proof of Inference réside ici. Ce n'est pas pour rendre le système plus complexe, mais pour garantir que chaque décision autonome soit vérifiable. Pas d'explications après coup, mais la capacité de prouver qu'elle a effectivement fonctionné selon les règles au moment de l'action. Lorsque les systèmes autonomes entrent dans des domaines critiques tels que la santé, l'industrie et la sécurité publique, la validation n'est plus une option supplémentaire, mais une condition préalable à l'établissement de l'autonomie. #KaitoYap @KaitoAI #Yap @inference_labs