Flexion Robotics niedawno opublikowało imponujący film z modułowym robotem, który stabilnie porusza się w skomplikowanym terenie i w scenariuszach po katastrofie, wykonując płynne ruchy. Poziom realizacji projektu jest bardzo wysoki, to już nie jest koncepcyjny model z laboratorium, ale robot, który potrafi samodzielnie pracować w rzeczywistym, nieuporządkowanym środowisku. Jednak gdy takie roboty naprawdę wychodzą na zewnątrz i stają w obliczu całkowicie niekontrolowanego otoczenia, samo dobre wrażenie to zdecydowanie za mało. Prawdziwym wyzwaniem nie jest to, czy potrafi wykonać zadanie, ale dlaczego w danym momencie wybrał ten a nie inny ruch? Czy system percepcyjny dokładnie ocenia otoczenie? Czy cały proces decyzyjny zawsze przestrzegał zasad bezpieczeństwa i reguł operacyjnych? Jeśli na te pytania można odpowiedzieć tylko po fakcie, przeglądając logi lub słuchając, co mówi producent, to ten system w zasadzie nadal jest czarną skrzynką. W pracy w terenie, podczas akcji ratunkowych czy w miejscach publicznych, autonomiczne decyzje w stylu czarnej skrzynki nie budzą zaufania. Aby roboty do użytku na zewnątrz mogły być naprawdę wdrożone, muszą mieć weryfikowalne zapisy decyzji, nie chodzi o analizowanie sytuacji po incydencie, ale o jasne udowodnienie, że każdy kluczowy ruch oparty jest na wiarygodnej percepcji, zgodnej dedukcji i możliwej do śledzenia egzekucji. Tylko wtedy, gdy robot zacznie ponosić rzeczywiste ryzyko, zaufanie nie może opierać się tylko na efektownym filmie demonstracyjnym, ale musi być wspierane przez rygorystyczny, audytowalny mechanizm weryfikacji. #KaitoYap @KaitoAI #Yap @inference_labs