Autonome systemer beveger seg raskt inn i virkelige situasjoner hvor en feil kan få alvorlige konsekvenser Fra roboter som reparerer koraller på havbunnen, til robotarmer i operasjonsrom, til humanoide roboter i grensekontroll og sikkerhet, er AI ikke lenger bare en bakgrunnsassistent, men direkte ansvarlig for å oppfatte omgivelsene, ta beslutninger og utføre handlinger Utrullingen går raskt, men tilliten holder ikke tritt. I den virkelige verden ville ingen lett akseptere utsagnet «stol på oss, modellen hadde rett på det tidspunktet». Når roboten treffer en hindring, dronen plutselig bytter bane, eller systemet utløser en kritisk operasjon, vil alle spørre: hva er det egentlig den ser? Hvorfor bestemte du deg for dette? Kjøres hele prosessen strengt etter den opprinnelige modellen? Det Inference Labs gjør, er å bygge videre på dette mest kritiske fundamentet av tillit. I stedet for å trene en sterkere modell, tilbyr de en Proof of Inference-mekanisme, som bruker kryptografi for å skaffe verifiserbare bevis for å bevise at modellen ikke har blitt hemmelig erstattet, at prosessen ikke er blitt tuklet med, og at beslutningen er fullt innenfor sikkerhets- og overholdelsesrammene. Disse støttes ikke lenger av post-mortem logger eller verbale forklaringer, men støttes direkte av matematisk ufalsifiserbare bevis Når autonome systemer virkelig begynner å ta ansvar, må sikkerhet, sporbarhet og ansvarlighet integreres i designet fra starten av, i stedet for å rettes opp når noe går galt. Kriteriet for autonom intelligens som virkelig kan implementeres trygt i stor skala, er aldri om den vil fungere, men om den kan bevises å være riktig #KaitoYap @KaitoAI #Yap @inference_labs