A substituição de modelos nas APIs de LLM é um problema documentado. Pesquisa: "Você está recebendo o que paga? Auditoria da Substituição de Modelos nas APIs de LLM" Descoberta: Os provedores têm incentivos financeiros para trocar silenciosamente modelos caros por mais baratos. Os usuários não têm como verificar o que está realmente em execução. A Brave acabou de resolver isso com IA criptograficamente verificável. A implementação: @brave Leo agora usa @near_ai @nvidia Ambientes de Execução Confiáveis para privacidade comprovável e transparência do modelo. Isso são garantias criptográficas reforçadas por hardware. A ARQUITETURA: GPUs Nvidia habilitadas para TEE criam enclaves seguros isolados por hardware com criptografia total de dados e código durante a inferência. Relatórios de atestação criptográfica contêm hashes de modelos e hashes de código de execução. A atestação remota verifica se o TEE da Nvidia está executando código-fonte aberto não modificado. AS GARANTIAS: - Confidencialidade: Mesmo um SO totalmente comprometido não pode acessar a memória do TEE (isolamento de hardware) - Integridade: Prova criptográfica do modelo exato e do código em execução - Verificabilidade: Cadeia de código-fonte aberto da atestação de hardware A CADEIA DE VERIFICAÇÃO: O usuário seleciona o modelo → @brave valida a atestação criptográfica da @near_ai → confirma o hardware TEE da @nvidia → prova que o DeepSeek V3.1 está em execução não modificado → emblema verde ✅ exibido Isso elimina três problemas críticos: (1) Lavagem de privacidade: Matemática sobre marketing. Provas criptográficas substituem políticas de privacidade. (2) Substituição de modelos: Prova reforçada por hardware de que você está recebendo o modelo que selecionou/pagou. (3) Requisitos de confiança: Garantias de hardware substituem acordos legais. COMPARAÇÃO COM O APPLE PRIVATE CLOUD COMPUTE: Abordagem TEE semelhante, filosofia diferente:...