Kun malli kasvaa ja kykenevämmäksi, ilmenee ongelma, joka käy yhä ilmeisemmäksi, eikä varmennusnopeus pysy lainkaan mukana päättelyn monimutkaisuudessa ja nopeudessa Kun päättelyprosessi muuttuu yhä enemmän mustaksi laatikoksi, mallin lähde on epäselvä ja suorituspolkua ei voida täysin toistaa, luottamus alkaa pettää. Ei siksi, että sen pitäisi olla väärin, vaan koska emme yksinkertaisesti pysty todistamaan sitä oikeaksi Tätä kutsutaan verifiointiaukoksi. Tekoäly ei ole tarpeeksi älykäs, mutta sillä ei ole luotettavaa tapaa, jolla kaikki voisivat varmistaa, mistä mallista tulos tuli, missä ympäristössä ja onko se toteutettu tiukasti sääntöjen mukaisesti Se, mitä Inference Labs haluaa tehdä, on itse asiassa melko suoraviivaista, tehden jokaisesta tekoälytulosteesta salatun digitaalisen sormenjäljen. Se ei ole jälkikäteen annettu selitys, eikä se perustu valmistajan takuuseen, vaan sertifikaatti, jonka kuka tahansa voi varmistaa ja pysyvästi varmistaa, ja että henkilöllisyys, lähdekoodi ja suorituksen eheys ovat kaikki lukittuina tulostushetkellä Vain kun järjestelmä on auditoitavissa, siihen voidaan todella luottaa, ja vain kun luottamus on todistettavissa, autonominen tekoäly voidaan turvallisesti toteuttaa laajassa mittakaavassa. Siihen suuntaan he etenevät #KaitoYap @KaitoAI #Yap @inference_labs