Autonomní agenti přecházejí od experimentů k infrastruktuře. Těšíme se, že můžeme s @Kassai_ai spolupracovat na zkoumání, jak kryptografické ověřování může zajistit chování agenta. Jde o to, aby byly akce agenta prokazatelné, nejen spustitelné: 🧵
2/ Kassai buduje distribuovanou inferenční síť, která funguje na okraji. Místo soustředění výpočetní kapacity v centralizovaných datových centrech aktivuje Kassai neaktivní spotřebitelské GPU, aby vytvořil globálně distribuovanou, nízkolatencní výkonnou vrstvu pro agentické systémy. Tento návrh klade důraz na odolnost, nákladovou efektivitu a suverenitu.
3/ Agentická AI je zásadně odlišná od jednorázové inference. Agenti plánují, volají nástroje, vyvolávají modely, vyměňují zprávy a spouštějí následné efekty napříč systémy. Když jsou tyto činy nejasné, selhání jsou neviditelná a odpovědnost mizí.
4/ Lagrange tuto mezeru řeší přidáním ověřování při vykonávání. Pomocí DeepProve mohou akce agenta vysílat důkazy bez znalostí, které potvrzují, že akce byla provedena podle autorizované logiky a platných vstupů, aniž by odhalily interní uvažování nebo citlivá data. Výsledkem jsou důkazy, nikoli předpoklady.
5/ To vytváří ověřitelný vykonávací pipeline pro agenty běžící přes distribuovanou infrastrukturu: • Rozhodování • Vyvolání nástroje • Modelová inference • Aktualizace státu • Vnější akce Každý krok může být nezávisle ověřen jinými agenty, aplikacemi nebo logikou vynucování.
6/ V tomto modelu už důvěra není vložena do agenta ani do hardwaru, na kterém běží. Důvěra je vložena do kryptografických důkazů, které svědčí o správném chování. Kassai poskytuje popravčí strukturu. Lagrange poskytuje důkazní vrstvu, která činí toto provedení odpovědným.
7/ Jak agentické systémy začínají koordinovat ekonomickou činnost, správu a reálné operace, ověřování se stává nezbytným. Autonomie ve velkém měřítku vyžaduje důkaz. Tímto směrem se Lagrange a Kassai ubírají.
32