AI systémy jsou každý den chytřejší. Ale samotná inteligence nedělá systém důvěryhodným. Ve skutečnosti platí, že čím autonomnější agent je, tím nebezpečnější může být neověřená inteligence.
Zpravodajství odpovídá na otázky jako: • Umí tento agent uvažovat? • Umí plánovat? • Může jednat efektivně? Trust odpovídá na zcela jiné otázky: • Bylo mu dovoleno hrát? • Zůstala v rámci omezení? • Lze jeho činy dokázat až po události?
Vysoce inteligentní agent bez záruk může stále: • Překročit své pravomoci • Oprávnění ke zneužití • Provádět akce, které nikdo nemůže auditovat ani vysvětlit Chytré chování nezaručuje zodpovědné chování.
Proto nelze důvěru odvodit pouze z výsledků. Důvěra musí být do systému začleněna prostřednictvím: • Ověřitelná identita • Explicitní povolení • Auditovatelné provádění Bez těchto informací se zpravodajství stává neprůhledným — nespolehlivým.
Budoucnost autonomních systémů nebude definována tím, jak chytří agenti jsou. Bude definována tím, jak dobře lze jejich činy ověřit, omezit a vysvětlit. To je základ, který Kite staví 🪁
228