A substituição de modelos em APIs de LLMs é um problema documentado. Pesquisa: "Você está recebendo pelo que paga? Auditando a Substituição de Modelos em APIs LLM" Constatação: Os provedores têm incentivos financeiros para trocar silenciosamente modelos caros por modelos mais baratos. Os usuários não têm como verificar o que está realmente rodando. O Brave acabou de resolver isso com IA criptograficamente verificável. A implementação: @brave Leo agora utiliza @near_ai @nvidia Ambientes de Execução Confiáveis para privacidade comprovável e transparência do modelo. Isso é garantia criptográfica imposta por hardware. A ARQUITETURA: GPUs Nvidia habilitadas para TEE criam enclaves seguros isolados por hardware com criptografia completa de dados e código durante a inferência. Relatórios de atestação criptográfica contêm hashes de modelo e hashes de código de execução. Atestação remota verifica se o Nvidia TEE genuíno está rodando código open-source não modificado. AS GARANTIAS: - Confidencialidade: Mesmo um sistema operacional totalmente comprometido não pode acessar a memória TEE (isolamento por hardware) - Integridade: Prova criptográfica do modelo exato e da execução do código - Verificabilidade: Cadeia de código aberto do código à atestação de hardware A CADEIA DE VERIFICAÇÃO: O usuário seleciona o modelo → @brave valida @near_ai atestação criptográfica → confirma @nvidia hardware TEE → comprova que o DeepSeek V3.1 rodando sem modificações → o selo verde ✅ exibido Isso elimina três problemas críticos: (1) Privacidade e lavagem de privacidade: matemática em vez de marketing. Provas criptográficas substituem as políticas de privacidade. (2) Substituição de modelo: Prova reforçada por hardware de que você está recebendo o modelo que selecionou/pagou. (3) Requisitos de confiança: Garantias de hardware substituem acordos legais. COMPARAÇÃO COM A COMPUTAÇÃO PRIVADA EM NUVEM DA APPLE: Abordagem semelhante de TEE, filosofia diferente:...