AI 系統每天都在變得更聰明。 但僅僅有智慧並不使系統值得信賴。 事實上,代理越是自主,未經驗證的智慧就越危險。
智慧回答類似以下問題: • 這個代理能推理嗎? • 它能計劃嗎? • 它能有效行動嗎? 信任則回答完全不同的問題: • 它被允許行動嗎? • 它是否在限制範圍內? • 它的行動能在事後證明嗎?
一個沒有安全措施的高度智能代理仍然可以: • 超越其權限 • 濫用權限 • 執行無法被審計或解釋的行動 聰明的行為並不保證負責任的行為。
這就是為什麼信任不能僅僅從結果中推斷出來。 信任必須通過以下方式設計進系統中: • 可驗證的身份 • 明確的權限 • 可審計的執行 沒有這些,智慧就變得不透明——不可靠。
自主系統的未來不會由智能代理的聰明程度來定義。 而是由它們的行動能夠被驗證、約束和解釋的程度來定義。 這就是Kite所建立的基礎 🪁
229