Modellsubstitusjon i LLM-API-er er et dokumentert problem. Forskning: «Får du det du betaler for? Revisjon av modellsubstitusjon i LLM-API-er" Funn: Leverandører har økonomiske insentiver til stille å bytte ut dyre modeller med billigere. Brukere har ingen måte å verifisere hva som faktisk kjører. Brave har nettopp løst dette med kryptografisk verifiserbar AI. Implementeringen: @brave Leo bruker nå @near_ai @nvidia Trusted Execution Environments for bevisbar personvern og modelltransparens. Dette er maskinvarehåndhevede kryptografiske garantier. ARKITEKTUREN: TEE-aktiverte Nvidia-GPUer lager maskinvareisolerte sikre enklaver med full kryptering av data og kode under inferensen. Kryptografiske attestasjonsrapporter inneholder modell-hasher og utførelseskode-hasher. Fjernattestering verifiserer ekte Nvidia TEE som kjører uendret åpen kildekode. GARANTIENE: - Konfidensialitet: Selv et fullstendig kompromittert operativsystem kan ikke få tilgang til TEE-minne (maskinvareisolasjon) - Integritet: Kryptografisk bevis på eksakt modell og kode som kjører - Verifiserbarhet: Åpen kildekode-kjede fra kode til maskinvareattestering VERIFISERINGSKJEDEN: Bruker velger modell → @brave validerer @near_ai kryptografisk attestasjon → bekrefter TEE-maskinvaren @nvidia → beviser at DeepSeek V3.1 kjører uendret → grønt ✅ merke som vises Dette eliminerer tre kritiske problemer: (1) Privacy-washing: Matematikk fremfor markedsføring. Kryptografiske bevis erstatter personvernregler. (2) Modellbytte: Maskinvarehåndhevet bevis på at du får modellen du valgte/betalte for. (3) Tillitskrav: Maskinvaregarantier erstatter juridiske avtaler. SAMMENLIGNING MED APPLE PRIVATE CLOUD COMPUTE: Lignende TEE-tilnærming, annen filosofi:...