Vieles wird darüber gesprochen, die Privatsphäre zu erhöhen, indem eine Schicht der anonymen Weiterleitung zwischen dem Benutzer und dem Anbieter des KI-Modells geschaffen wird. Aber was ich wirklich nicht verstehe, ist Folgendes: Handelsübliche LLMs sind bereits außergewöhnlich gut darin, Muster zu erkennen und zu de-anonymisieren. Warum sollten wir denken, dass sie nicht in der Lage sind, uns schnell wieder zu verknüpfen? Ich würde wetten, dass eine einmalige Wiederidentifizierung durch ein Modell leicht möglich ist, selbst über einzelne Eingabeaufforderungen von mehreren Konten, auch wenn sie 'anonym' an die API weitergeleitet werden. Fast sicher besonders zutreffend, wenn Benutzer am selben Code, Projekt oder aus derselben Umgebung arbeiten. Fazit: Es ist ein bisschen so, als würde man den Tor-Browser verwenden und denken, man sei anonym gegenüber Websites, aber Cookies über Sitzungen hinweg behalten. Die Menge an Aufwand, die man betreiben müsste, um den Kontext wirklich gegen eine Wiederverknüpfung durch große Modelle zu härten, scheint wirklich erheblich zu sein, bis zu dem Punkt, an dem es massiv ineffizient wird.