De meeste AI-modellen van vandaag leren van "anonieme" gegevens, basically alles wat ze op het web kunnen vinden. Terwijl AI begint grotere beslissingen te nemen, zoals het diagnosticeren van een patiënt in een ziekenhuis of het besturen van een zelfrijdende auto, kunnen we het ons niet veroorloven dat die gegevens een "mysterie" zijn. Als de gegevens slecht zijn (wat experts "data poisoning" noemen), worden de beslissingen van de AI gevaarlijk. 𝐇𝐨𝐰 𝐏𝐞𝐫𝐥𝐞 𝐋𝐚𝐛𝐬 𝐅𝐢𝐱𝐞𝐬 𝐈𝐭 Denk aan @PerleLabs als een digitale notaris voor AI-gegevens. In plaats van willekeurige menigten te gebruiken om gegevens te labelen, gebruiken ze goedgekeurde experts (zoals echte artsen of advocaten). 𝐇𝐞𝐫𝐞 𝐢𝐬 𝐡𝐨𝐰 𝐢𝐭 𝐰𝐨𝐫𝐤𝐬 𝐢𝐧 𝐭𝐡𝐫𝐞𝐞 𝐬𝐢𝐦𝐩𝐥𝐞 𝐬𝐭𝐞𝐩𝐩𝐞𝐧: 𝗘𝘅𝗽𝗲𝗿𝘁 𝗧𝗲𝗮𝗰𝗵𝗲𝗿𝘀: Alleen mensen die daadwerkelijk de materie kennen, mogen de AI onderwijzen. Een radioloog controleert de medische beelden, niet een willekeurig persoon met een smartphone. 𝗧𝗵𝗲 𝗨𝗻𝗰𝗵𝗮𝗻𝗴𝗲𝗮𝗯𝗹𝗲 𝗥𝗲𝗰𝗲𝗶𝗽𝘁: Elke keer dat een expert de AI helpt, wordt die actie vastgelegd op een blockchain. Dit creëert een permanent, "on-hackbaar" record zodat een bedrijf precies kan bewijzen wie hun AI heeft getraind en waar de informatie vandaan komt. 𝗥𝗲𝗽𝘂𝘁𝗮𝘁𝗶𝗼𝗻 𝗠𝗮𝘁𝘁𝗲𝗿𝘀: Als een expert consequent geweldige informatie levert, bouwen ze een digitaal "cv" op het platform dat hen meer beloningen oplevert. Dit zorgt ervoor dat kwaliteit altijd voor snelheid komt. 𝐖𝐡𝐲 𝐃𝐨𝐞𝐬 𝐓𝐡𝐢𝐬 𝐌𝐚𝐭𝐭𝐞𝐫? In de nabije toekomst, wanneer een AI een rechter of een chirurg helpt, hoeven we de machine niet alleen maar te "vertrouwen". Dankzij Perle Labs kunnen we naar de "ontvangsten" kijken om te zien dat de AI is getraind door de beste menselijke experts ter wereld. @PerleLabs #PerleAI #ToPerle