Les agents AI peuvent agir de manière autonome. Mais sans confiance vérifiable, l'autonomie devient un fardeau. C'est pourquoi la plupart des agents ont encore besoin de supervision. 🧵👇🏻
Aujourd'hui, lorsque qu'un agent agit, nous ne pouvons généralement pas répondre : • Qui l'a autorisé ? • Quelles limites avait-il ? • Est-ce qu'il est resté dans ces limites ? La confiance est supposée — non prouvée.
Les systèmes autonomes ont besoin de preuves, pas de promesses. Kite rend chaque action d'agent : • Autorisée • Soumise à des contraintes • Cryptographiquement vérifiable La confiance est renforcée par l'infrastructure 🪁
L'autonomie fonctionne mieux lorsqu'elle est responsable. Que devraient pouvoir prouver les agents ensuite ? -FIN.
305