Er wordt veel gesproken over het vergroten van de privacy door een laag van anonimiteitsrouting te creëren tussen de gebruiker en de AI-modelprovider. Maar wat ik echt niet begrijp is dit: commodity LLM's zijn al uitzonderlijk goed in het identificeren van patronen en het de-anonimiseren. Waarom zouden we denken dat ze niet in staat zijn om ons snel weer te relinken? Ik wed dat 1-shot re-identificatie door een model gemakkelijk mogelijk is over enkele prompts van meerdere accounts, zelfs als ze 'anoniem' naar de API zijn gerouteerd. Bijna zeker vooral waar wanneer gebruikers aan dezelfde code, project of vanuit dezelfde omgeving werken. Conclusie: het is een beetje zoals het gebruik van de Tor-browser in de veronderstelling dat je anoniem bent voor websites, maar cookies tussen sessies behoudt. De hoeveelheid rommel die je zou moeten doen om de context echt te verharden tegen relinking door grote modellen lijkt echt aanzienlijk te zijn tot het punt van enorme inefficiëntie.