Proof of Inference (PoI) é um protocolo de criptografia desenvolvido pela equipe da Inference Labs, projetado especificamente para resolver problemas de confiança no processo de inferência da IA. Ele utiliza métodos criptográficos para garantir que cada saída da IA possa ser verificada de forma independente, assegurando que todo o processo não foi adulterado e que não houve fraudes, não sendo mais uma caixa-preta em que se deve confiar apenas na palavra. O PoI é baseado em uma combinação de várias tecnologias-chave: • Provas de conhecimento zero (ZKP): podem provar que o processo de cálculo está completamente correto, sem expor os pesos do modelo ou dados privados, permitindo que quem verifica não precise executar todo o modelo novamente. • Fragmentação distribuída do modelo: divide um grande modelo em partes menores, distribuindo-as em vários nós para cálculo paralelo e geração de provas, que são finalmente combinadas em uma prova completa, tornando o processo mais rápido e mais adequado para uso em larga escala. • Sistema de prova leve: o processo de geração de provas é otimizado para ser muito eficiente, com baixo custo e alta velocidade, permitindo que qualquer pessoa que receba a prova possa verificá-la rapidamente. O PoI é mais adequado para áreas de alto risco onde não se pode cometer erros: • Veículos autônomos ou robôs cirúrgicos: após um acidente, é possível verificar diretamente se cada decisão da IA estava de acordo com o modelo original. • Transações financeiras e DeFi: garante que as estratégias da IA não foram alteradas secretamente, facilitando a auditoria regulatória. • Diagnóstico médico: aumenta a confiança de médicos e pacientes nas recomendações fornecidas pela IA. • Agentes de IA descentralizados: mesmo que os nós sejam anônimos, a confiança pode ser estabelecida através de provas, promovendo o desenvolvimento de sistemas multiagentes. Por que isso é tão importante agora? O desenvolvimento da IA está avançando rapidamente, mas os problemas de confiança não acompanharam. Muitos modelos ainda são caixas-pretas, onde a saída é boa ou ruim, especialmente em áreas críticas como saúde, finanças e veículos autônomos, onde um erro pode ter um custo enorme. No futuro, a IA será cada vez mais distribuída e descentralizada; confiar apenas em grandes empresas já não é suficiente. O PoI fornece a base de confiança subjacente, substituindo a crença cega por provas matemáticas. Assim como a blockchain tornou os ativos digitais confiáveis, o PoI está tornando as decisões da IA igualmente confiáveis. A Inference Labs está atualmente avançando com essa tecnologia por meio de ferramentas de código aberto e uma rede de testes, com o objetivo de tornar a IA verdadeiramente segura e escalável.