Veneția tocmai a livrat inferența AI criptată end-to-end. Toate platformele majore de IA de astăzi funcționează pe aceeași presupunere de bază de încredere. Trebuie să ai încredere că furnizorul va gestiona datele tale responsabil. @AskVenice a funcționat cu o arhitectură ușor diferită. Conversațiile sunt stocate local pe dispozitivul tău, iar prompturile nu sunt menținute pe partea serverului. Când folosești modele frontier, Venice face proxy-uri cererii astfel încât furnizorul să nu primească niciodată datele tale de identitate. Totuși, aceleași presupuneri privind încrederea se aplică și aici. Dacă Veneția sau un partener ar fi vrut să intercepteze date, nimic din arhitectură nu ar fi împiedicat acest lucru. Noua lansare introduce două moduri de confidențialitate impuse hardware-ului. TEE rulează inferențe în enclave hardware securizate operate de NEAR AI Cloud și Phala Network, izolând calculul de operatorul gazdă și infrastructură. Atestarea la distanță leagă un certificat criptografic de hardware-ul fizic, astfel încât oricine să poată verifica independent că modelul rulează într-un enclavă autentică. Nu mai trebuie să ai încredere în operatorul GPU-ului, dar tot ai încredere în stratul de tranzit al Venice. E2EE elimină acea presupunere rămasă de încredere. Prompturile sunt criptate pe dispozitiv înainte de transmisie, rămân criptate prin infrastructura Venice și se decriptează doar în interiorul enclavei verificate. Veneția nu poate vedea datele tale în niciun moment în timpul funcționării normale. Compromisul este că răspunsurile pot fi mai lente, căutarea web și memoria sunt dezactivate deoarece ar necesita decriptare în afara enclavei. Ambele moduri rulează în prezent pe câteva modele open source prin NEAR AI Cloud și Phala Network și sunt exclusive abonaților Pro. Cât de solide sunt aceste garanții în practică depinde de implementarea atestării și de faptul dacă auditurile independente confirmă cererile.