Viime aikoina huomio @inference_labs on kasvanut huomattavasti. Se ei johdu hinnasta tai aktiivisuudesta, vaan siitä, että ne alkavat ilmestyä usein pienissä piireissä, jotka eivät kuulu kryptopiiriin. Muutama päivä sitten näin Inference Labsista puhuttavan erikseen liikemedioissa, kuten "Entrepreneur", ja aiheena ei ole tekoälyn vahvuus, vaan hyvin todellinen kysymys: Kun tekoäly alkaa tehdä päätöksiä itsenäisesti, kuka on vastuussa? Miten pitää vastuussa? Artikkelissa käytetään esimerkkinä korkeajännitetilanteita, kuten lentokenttiä – Monijärjestelmäyhteistyö, verkon epävakaus ja miehittämätön reaaliaikainen interventio. Tässä tapauksessa, jos tekoälyn antamassa johtopäätöksessä menee jotain pieleen, "Tulos on oikea" ei enää riitä, sen täytyy pystyä selittämään "miksi se tehdään". Tämä osuu itse asiassa tekoälyn suurimpaan heikkouteen nyt: Useimmat päättelyprosessit ovat mustia laatikoita. Näet vain ulostulon, et prosessia, eikä sitä voi vahvistaa. Jos tekoäly vain tuottaa sisältöä, se ei ole iso ongelma; Mutta kun alat siirtyä ketjuun, hallita varoja, ajaa protokollia ja kun agentti suorittaa tapahtumat automaattisesti, Tämä läpinäkymättömyys on lähes kohtalokasta. Se on se, mikä Inference Labsissa todella kiinnostaa. He eivät vertaile mallin parametreja tai romahda suorituskyvystä. Sen sijaan keskity: 👉 Kuinka tehdä tekoälyn päättelyprosessista "todennettavissa, auditoitavissa oleva ja vastuullinen" fakta. Heidän viimeaikaiset toimintansa Bittensor-ekosysteemissä ovat itse asiassa tässä vaiheessa. Erityisesti Subnet 2: DSpersen julkaisu. Se, mitä DSperse tekee, on suoraviivaista: Tekoälyn päättely ei ole "luota minuun", Sen sijaan jokaisessa tulosteessa on zk-todistus, Prosessi on ketjussa, todennettavissa ja ei-manipulointisuojattu. Tärkeämpää on, että mallipainot voidaan myös jakaa salattuna—— Toiset voivat käyttää malliasi, mutta eivät näe ydinparametrejasi. Tämä on hyvin realistinen murtumispiste niille, jotka todella tekevät malleja:...