Beaucoup de discussions sur l'augmentation de la confidentialité en créant une couche de routage anonyme entre l'utilisateur et le fournisseur de modèle d'IA. Mais ce que je ne comprends vraiment pas, c'est ceci : les LLMs de base sont déjà exceptionnellement bons pour identifier des motifs et dé-anonymiser. Pourquoi devrions-nous penser qu'ils ne sont pas capables de nous relier rapidement ? Je parierais qu'une ré-identification en une seule fois par un modèle est facilement possible à partir de prompts uniques de plusieurs comptes, même s'ils sont 'anonymement' routés vers l'API. C'est presque certainement vrai, surtout lorsque les utilisateurs travaillent sur le même morceau de code, projet, ou depuis le même environnement. En gros : c'est un peu comme utiliser le navigateur Tor en pensant que vous êtes anonyme des sites web, mais en gardant des cookies entre les sessions. La quantité de manipulations que vous devriez faire pour que le contexte soit vraiment durci contre le relinking par de grands modèles semble vraiment substantielle au point d'être massivement inefficace.