A confiança é frequentemente assumida em vez de imposta. À medida que os agentes de IA passam de assistentes a atores autónomos, essa suposição quebra silenciosamente. O verdadeiro modo de falha não é um raciocínio pobre, mas sim agentes a executar ações sem limites rígidos. Agentes inteligentes a funcionar em infraestruturas fracas não criam autonomia. Eles criam risco.
O desafio é que a confiança não pode ser inferida a partir da intenção ou dos resultados. Em sistemas autónomos, expectativas, políticas e "melhor comportamento" não escalam. Sem identidade explícita, autoridade delimitada e limites aplicáveis no momento da execução, os sistemas dependem de delegação cega. Registos e explicações após o fato não previnem danos, apenas os descrevem. Nesse ponto, a confiança torna-se otimismo respaldado por ferramentas.
A Kite aborda isso ao impor confiança na camada de infraestrutura. A identidade do agente, autoridade, restrições e execução são definidos nativamente e verificados onchain, de modo que as ações são restringidas antes de acontecerem, e não explicadas depois. Isso permite que os agentes atuem de forma independente e segura, sem aprovações humanas ou confiança cega. Na Kite, a confiança não é uma promessa. É uma propriedade do sistema 🪁
303