Substituce modelu v LLM API je zdokumentovaný problém. Výzkum: "Dostáváte to, za co platíte? Auditní substituce modelu v LLM API" Zjištění: Poskytovatelé mají finanční motivaci tiše vyměňovat drahé modely za levnější. Uživatelé nemají žádný způsob, jak ověřit, co skutečně běží. Brave to právě vyřešil pomocí kryptograficky ověřitelné AI. Implementace: @brave Leo nyní používá @near_ai @nvidia Trusted Execution Environments pro prokazatelnou ochranu soukromí a transparentnost modelů. Jedná se o hardwarově vynucované kryptografické záruky. ARCHITEKTURA: GPU Nvidia s podporou TEE vytvářejí hardwarově izolované bezpečné enklávy s plným šifrováním dat a kódu během inference. Kryptografické atestační zprávy obsahují hashe modelu a hashe vykonávacího kódu. Vzdálené potvrzení ověřuje skutečný Nvidia TEE běžící neupravený open-source kód. ZÁRUKY: - Důvěrnost: Ani plně kompromitovaný operační systém nemůže přistupovat k TEE paměti (hardwarová izolace) - Integrita: Kryptografický důkaz přesného spuštění modelu a kódu - Ověřitelnost: Open-source řetězec od kódu k hardwaru VERIFIKAČNÍ ŘETĚZEC: Uživatel si vybere model → @brave ověří @near_ai kryptografické ověření → potvrdí @nvidia TEE hardware → prokáže, že DeepSeek V3.1 běží bez úprav → zeleným ✅ odznakem zobrazeným Tím se eliminují tři zásadní problémy: (1) Mytí soukromí: Matematika před marketingem. Kryptografické důkazy nahrazují zásady ochrany soukromí. (2) Substituce modelu: Hardwarově vynucený důkaz, že dostáváte model, který jste si vybrali/zaplatili. (3) Požadavky na trust: Hardwarové záruky nahrazují právní smlouvy. SROVNÁNÍ S APPLE PRIVATE CLOUD COMPUTE: Podobný přístup TEE, jiná filozofie:...