V poslední době je patrný nárůst pozornosti věnované @inference_labs. Není to kvůli ceně nebo aktivitě, ale protože se začínají objevovat častěji v malých kruzích, které do krypto kruhu nepatří. Před pár dny jsem viděl, jak se o Inference Labs mluví samostatně v obchodních médiích jako "Entrepreneur", a téma není o tom, jak silná AI je, ale o velmi reálné otázce: Až AI začne rozhodovat samostatně, kdo bude zodpovědný? Jak být zodpovědný? Článek používá scénáře s vysokým napětím, jako jsou letiště, jako příklad – Spolupráce více systémů, nestabilita sítí a bezpilotní zásahy v reálném čase. V tomto případě, pokud se něco pokazí s závěrem dané AI, "Výsledek je správný" už nestačí, musí to vysvětlit "proč se to dělá". To vlastně zasahuje největší slabinu AI dnes: Většina procesů uvažování jsou černé skříňky. Vidíte jen výstup, ne proces, a nemůžete to ověřit. Pokud AI jen generuje obsah, není to velký problém; Ale jakmile začnete komunikovat, spravovat prostředky, spouštět protokoly a když agent automaticky provádí transakce, Tato neprůhlednost je téměř smrtelná. To je to, co mě na Inference Labs opravdu zajímá. Neporovnávají parametry modelu ani výkon vyfukování. Místo toho se zaměřte na: 👉 Jak udělat z procesu uvažování AI "ověřitelný, auditovatelný a odpovědný" fakt. Jejich nedávné kroky v ekosystému Bittensor jsou vlastně právě teď. Zvlášť při spuštění Subnet 2: DSperse. To, co DSperse dělá, je jednoduché: Uvažování AI není "věř mi", Místo toho každý výstup obsahuje důkaz zk, Proces je on-chain, ověřitelný a neškodný manipulaci. Důležitější je, že váhy modelů lze také sdílet a šifrovat—— Jiní mohou použít váš model, ale nevidí vaše základní parametry. To je velmi realistický bod zlomu pro ty, kteří opravdu vyrábějí modely:...