Se vorbește mult despre creșterea confidențialității prin crearea unui strat de rutare de anonimat între utilizator și furnizorul modelului AI. Dar ceea ce nu înțeleg cu adevărat este următorul lucru: LLM-urile commodity sunt deja excepțional de bune la identificarea tiparelor și la de-anonimizare. De ce am crede că nu sunt capabili să ne reconecteze rapid? Aș paria că reidentificarea dintr-o singură dată de către un model este ușor posibilă prin solicitări individuale de la mai multe conturi, chiar dacă acestea sunt direcționate "anonim" către API. Aproape sigur este valabil mai ales când utilizatorii lucrează la aceeași bucată de cod, proiect sau din același mediu. Concluzia: e cam ca și cum ai folosi browserul Tor crezând că ești anonim de pe site-uri, dar păstrând cookie-urile între sesiuni. Cantitatea de detalii pe care ar trebui să o aplici contextului pentru a fi cu adevărat întărit împotriva reconectării de către modele mari pare cu adevărat substanțială, până la punctul de a deveni o ineficiență uriașă.