Muito se fala sobre aumentar a privacidade criando uma camada de roteamento anônimo entre o usuário e o provedor do modelo de IA. Mas o que eu realmente não entendo é o seguinte: os LLMs de commodities já são excepcionalmente bons em identificar padrões e desanonimizar. Por que deveríamos pensar que eles não são capazes de nos relinkar rapidamente? Eu apostaria que a reidentificação em 1-shot por um modelo é facilmente possível através de prompts únicos de várias contas, mesmo que sejam roteados "anonimamente" para a API. Quase certamente isso é especialmente verdadeiro quando os usuários estão trabalhando no mesmo trecho de código, projeto ou a partir do mesmo ambiente. Resumindo: é como usar o navegador Tor pensando que você é anônimo em relação aos sites, mas mantendo cookies entre as sessões. A quantidade de manipulação que você teria que fazer no contexto para ser verdadeiramente resistente ao relink por grandes modelos parece realmente substancial a ponto de ser uma enorme ineficiência.