Wenecja właśnie wprowadziła end-to-end szyfrowane wnioskowanie AI. Każda główna platforma AI dzisiaj opiera się na tym samym podstawowym założeniu zaufania. Musisz ufać dostawcy, że odpowiedzialnie zajmie się twoimi danymi. @AskVenice działał z nieco inną architekturą. Rozmowy są przechowywane lokalnie na twoim urządzeniu, a zapytania nie są przechowywane po stronie serwera. Kiedy korzystasz z modeli frontier, Wenecja pośredniczy w żądaniu, więc dostawca nigdy nie otrzymuje twoich danych tożsamości. Jednak te same założenia zaufania nadal mają zastosowanie. Jeśli Wenecja lub partner chcieliby przechwycić dane, nic w architekturze by temu nie zapobiegło. Nowe uruchomienie wprowadza dwa tryby prywatności wymuszane sprzętowo. TEE wykonuje wnioskowanie wewnątrz bezpiecznych obszarów sprzętowych obsługiwanych przez NEAR AI Cloud i Phala Network, izolując obliczenia od systemu operacyjnego gospodarza i operatora infrastruktury. Zdalna atestacja wiąże certyfikat kryptograficzny z fizycznym sprzętem, dzięki czemu każdy może niezależnie zweryfikować, że model działa wewnątrz prawdziwego obszaru. Nie musisz już ufać operatorowi GPU, ale nadal ufasz warstwie tranzytowej Wenecji. E2EE usuwa to pozostałe założenie zaufania. Zapytania są szyfrowane na urządzeniu przed transmisją, pozostają zaszyfrowane przez infrastrukturę Wenecji i są odszyfrowywane tylko wewnątrz zweryfikowanego obszaru. Wenecja nie może zobaczyć twoich danych w żadnym momencie podczas normalnej operacji. Wymiana to, że odpowiedzi mogą być wolniejsze, wyszukiwanie w sieci i pamięć są wyłączone, ponieważ wymagałyby odszyfrowania poza obszarem. Oba tryby obecnie działają na kilku modelach open source przez NEAR AI Cloud i Phala Network i są dostępne wyłącznie dla subskrybentów Pro. Jak solidne są te gwarancje w praktyce, zależy od implementacji atestacji i czy niezależne audyty potwierdzają te twierdzenia.