De fleste AI-modeller i dag lærer fra «anonyme» data, i praksis alt de kan finne på nettet. Når AI begynner å ta større beslutninger, som å diagnostisere en pasient på sykehus eller kjøre en selvkjørende bil, har vi ikke råd til at disse dataene skal være et «mysterium». Hvis dataene er dårlige (det eksperter kaller «dataforgiftning»), blir AI-ens beslutninger farlige. Hvordan Perle Labs fikser det Tenk på @PerleLabs som en digital notar for AI-data. I stedet for å bruke tilfeldige folkemengder for å merke data, bruker de godkjente eksperter (som ekte leger eller advokater). Slik fungerer det i tre enkle trinn: Ekspertlærere: Kun personer som faktisk kan faget får lov til å undervise AI. En radiolog sjekker de medisinske bildene, ikke en tilfeldig person med smarttelefon. Den uforanderlige kvitteringen: Hver eneste gang en ekspert hjelper AI-en, blir denne handlingen registrert på en blokkjede. Dette skaper en permanent, «ikke-hackbar» post slik at et selskap kan bevise nøyaktig hvem som har trent AI-en sin og hvor informasjonen kom fra. Omdømme betyr noe: Hvis en ekspert konsekvent gir god informasjon, bygger de en digital «CV» på plattformen som gir dem flere belønninger. Dette sikrer at kvalitet alltid kommer før fart. Hvorfor er dette viktig? I nær fremtid, når en AI hjelper en dommer eller en kirurg, trenger vi ikke bare å «stole på» maskinen. Takket være Perle Labs kan vi se på «kvitteringene» og se at AI-en er trent av verdens beste menneskelige eksperter. @PerleLabs #PerleAI #ToPerle