Un robot qui doit être accepté par tous doit d'abord passer l'épreuve de la validation ! La raison pour laquelle les robots chirurgicaux sont maintenant largement dignes de confiance n'est pas qu'ils semblent très intelligents, mais parce qu'ils ont dès le départ été calibrés avec une précision qui respecte les normes les plus élevées. Chaque mouvement, chaque jugement, doit être entièrement contrôlable et répétable, et il doit également être possible de rendre des comptes de manière claire. Avec des capacités autonomes de plus en plus fortes, ce seuil ne fera que monter, pas descendre. La réglementation, l'examen de sécurité, la mise en œuvre réelle, personne n'acceptera une simple affirmation selon laquelle le système était certainement correct à ce moment-là. Dans des scénarios à haut risque, dire simplement "faites-moi confiance" signifie directement être exclu. Les véritables questions cruciales sont en fait celles-ci : pourquoi a-t-il pris cette décision à ce moment-là ? Le modèle utilisé a-t-il été préalablement déclaré et approuvé ? Le processus de raisonnement a-t-il été altéré, dégradé ou a-t-il présenté des écarts inattendus ? Si tout cela ne peut pas être vérifié, il ne faut pas espérer une large adoption des capacités autonomes. La valeur de la Proof of Inference réside ici, elle ne rend pas le système plus complexe, mais permet de valider en temps réel chaque décision autonome, non pas en expliquant après coup, mais en prouvant au moment de la décision qu'elle a été exécutée conformément aux règles et au modèle établis. Lorsque les systèmes autonomes entreront réellement dans des domaines clés tels que la santé, l'industrie et la sécurité publique, la vérifiabilité ne sera pas une option supplémentaire, mais le fondement même de la viabilité des capacités autonomes. #KaitoYap @KaitoAI #Yap @inference_labs