Większość dzisiejszych systemów autonomicznych wciąż opiera się na ślepym zaufaniu. Ufamy, że agenci będą: • Działać zgodnie z zamierzeniami • Pozostawać w granicach • Unikać szkodliwego zachowania Jednak zaufanie bez egzekwowania nie skaluje się, szczególnie w przypadku oprogramowania.
Ślepe zaufanie zazwyczaj wygląda tak: • Szerokie klucze API • Długoterminowe poświadczenia • Implicytne uprawnienia • Monitorowanie po fakcie Jeśli coś pójdzie nie tak, ludzie wkraczają po wyrządzeniu szkód. To jest reaktywne, a nie bezpieczna autonomia.
W miarę jak agenci stają się coraz bardziej zdolni, ślepe zaufanie staje się coraz bardziej ryzykowne. Większa inteligencja oznacza: • Szerszą przestrzeń działania • Szybsze wykonanie • Większy zasięg wybuchu Bez twardych ograniczeń, jeden błąd może natychmiast się rozprzestrzenić.
Programowalne ograniczenia zmieniają model. Zamiast ufać intencjom, systemy egzekwują zasady: • Co agent może zrobić • Ile może wydać • Kiedy wygasa uprawnienie • Które działania wymagają eskalacji Ograniczenia są realizowane przez kod, a nie przez politykę.
To przenosi bezpieczeństwo z ludzkiego osądu na infrastrukturę. Ograniczenia mogą być: • Zakresowe (tylko określone działania) • Czasowe (ograniczone do sesji) • Budżetowe (limity wydatków) • Automatycznie odwoływalne Bez założeń. Bez zgadywania.
Co ważne, programowalne ograniczenia nie zmniejszają autonomii. Wręcz przeciwnie, umożliwiają ją. Gdy agenci działają w ramach narzuconych granic, mogą działać niezależnie, bez ciągłego nadzoru czy ręcznych zatwierdzeń.
Zaufanie w tym modelu staje się weryfikowalne. Każda akcja może być: • Autoryzowana • Sprawdzana pod kątem ograniczeń • Zarejestrowana • Audytowana po wykonaniu Zaufanie nie jest już społeczne ani subiektywne, jest udowodnione.
Ślepe zaufanie pyta: „Czy wierzymy, że ten agent się zachowa?” Programowalne ograniczenia pytają: „Co ten agent ma prawo robić?” Tylko jedno z tych podejść jest bezpieczne.
Przyszłość systemów autonomicznych nie będzie zależała od lepszych obietnic czy surowszych polityk. Będzie zależała od infrastruktury, która domyślnie egzekwuje ograniczenia. Dlatego Kite jest zbudowane wokół programowalnych ograniczeń, a nie ślepego zaufania 🪁
222