Agora, quando se trata de projetos de IA, muitas pessoas podem estar um pouco cansadas de ouvir, principalmente porque há cada vez mais projetos desse tipo, e a novidade já se foi há muito tempo. No entanto, o @inference_labs que vamos falar hoje resolve um problema que talvez ninguém conheça, mas se você realmente o enfrentar, vai sofrer, e vale a pena falar sobre isso Para ser direto, você gasta dinheiro para assinar um serviço de IA de alto nível, achando que está usando o modelo de topo anunciado pelo comerciante, mas, na verdade, o comerciante pode transferir secretamente seu pedido para um modelo mais barato. Afinal, você não consegue ver o interior do modelo, e os resultados de saída são parecidos, então é muito difícil descobrir que você foi transferido. Neste caso, o ponto profissional é chamado de risco de substituição de modelos; para ser direto, é gastar dinheiro para comprar serviços de alto padrão, e o uso real é uma alternativa barata A solução da Inference Labs tem uma ideia muito especial, baseando-se em provas de conhecimento zero para gerar evidências criptográficas publicamente verificáveis, que não só podem confirmar que o peso do modelo não mudou, mas também provar que um modelo especificado é usado, evitando armadilhas vindas da raiz 👉 As principais vantagens são intuitivas 1⃣ Qualquer um pode verificar. Seja você mesmo, as autoridades reguladoras ou um terceiro como o auditor, você pode verificar essas evidências de forma independente, sem confiar na Inference Labs ou nos comerciantes que fornecem serviços de IA, e sem depender de garantias de "caráter" durante todo o processo. 2⃣ Nenhuma privacidade é vazada. Os dados principais (pesos) do modelo e as informações que você inseriu não precisam ser divulgados, e a segurança é completa. Para dar um exemplo simples, assim como normalmente criptografamos páginas web com HTTPS, você não precisa saber os detalhes da criptografia por trás disso, basta garantir que a conexão seja segura, e o mesmo vale aqui Sua visão central é clara: permitir que os usuários usem IA de alto nível com confiança, desenvolvedores ousem abrir modelos (garantir PI), promover a transparência e credibilidade do ecossistema de IA, e reduzir a dependência de gigantes Em cenários como gestão de ativos on-chain e agentes automatizados, as pessoas se preocupam mais em interferir com o raciocínio e a transferência de modelos do que com a inteligência do modelo. Anteriormente, soluções semelhantes de verificação de inferência eram lentas e caras demais para implementar, mas a Inference Labs cooperou com a Cysic para introduzir aceleração de hardware ZK e instalar um "acelerador" para o sistema de verificação, tornando possível implementar uma teoria anti-falsificação Depois que a mainnet foi lançada, o foco deles mudou para um uso melhor, mais barato e maior, o que era perfeito para os nós onde o Agente poderia explodir. Esse estilo de não exagerar e fazer o bottom de forma sólida é particularmente confiável #InferenceLabs