Nedávno jsem si přejel pár tweetů z Inference Labs, které dávají velký smysl, AI model se stále zvětšuje, ale mezera v ověřování se stále prohlubuje. Celý proces uvažování se stává stále neprůhlednějším a není možné ověřit, odkud výstup pocházel a jak byl postupně tlačen ven, a pocit důvěry je přirozeně výrazně snížen Jejich řešení je jednoduché a přímočaré, ale zároveň obzvlášť účinné, přidává kryptografický důkaz ke každému výstupu AI, podobně jako transakční hash na blockchainu, který nelze kdykoli měnit a lze ho ověřit. Tímto způsobem už obsah generovaný AI není tím, co říkáte, ale lze jej přímo ověřit pomocí kryptografie Není to právě ta slabina, kterou web3 musí nejvíce kompenzovat? Decentralizace přesunula důvěru od institucí k mechanismům kódu a kryptografie, a nyní, když bude AI implementována ve velkém, pokud je stále černou skříňkou, kdo si dovolí bezpečně jí předat finance, data a klíčová rozhodnutí Díky tomuto kryptografickému důkazu lze skutečně implementovat ověřování identity, bezpečnost a sledovatelnost odpovědnosti, aby bylo možné dosáhnout auditovatelného autonomního systému. Bez ohledu na to, jak mocná AI je, musí být pochopena a ověřena, jinak bez ohledu na velikost modelu bude jen propracovanější generátor lží #KaitoYap @KaitoAI #Yap @inference_labs