Recentemente, peguei alguns tweets da Inference Labs, o que faz tanto sentido, o modelo de IA está ficando cada vez maior, mas a lacuna de verificação está cada vez maior. Todo o processo de raciocínio está se tornando cada vez mais opaco, e não há como verificar de onde veio o resultado e como foi divulgado passo a passo, e o senso de confiança naturalmente é muito reduzido A solução deles é simples e direta, mas particularmente impactante, adicionando uma prova criptográfica a cada saída de IA, semelhante a um hash de transação na blockchain, que não pode ser adulterada e pode ser verificada a qualquer momento. Dessa forma, o conteúdo gerado por IA não é mais o que você diz, mas pode ser verificado diretamente por criptografia Não é essa a limitação que o web3 mais precisa compensar? A descentralização transferiu a confiança das instituições para os mecanismos de código e criptografia, e agora que a IA será implementada em grande escala, se ainda for uma caixa-preta, quem ousa entregar fundos, dados e decisões-chave com segurança Com essa prova criptográfica, autenticação de identidade, segurança e responsabilidade, a rastreabilidade pode ser realmente implementada para alcançar um sistema autônomo auditável. Não importa o quão poderosa seja a IA, ela precisa ser compreendida e verificada, caso contrário, não importa o tamanho do modelo, ela só será um gerador de mentiras mais refinado #KaitoYap @KaitoAI #Yap @inference_labs