Mycket pratas om att öka integriteten genom att skapa ett lager av anonymitetsrouting mellan användare och leverantör av AI-modeller. Men det jag verkligen inte förstår är detta: vanliga LLM:er är redan exceptionellt bra på att identifiera mönster och av-anonymisera. Varför skulle vi tro att de inte kan snabbt koppla om oss? Jag skulle gissa att engångs-omidentifiering av en modell är lätt möjlig över enskilda prompts från flera konton, även om de 'anonymt' routas till API:et. Nästan säkert gäller det särskilt när användare arbetar med samma kodbit, projekt eller från samma miljö. Sammanfattning: ungefär som att använda Tor-webbläsaren och tro att du är anonym från webbplatser, men behålla cookies över sessioner. Den mängd smuts man måste göra för att verkligen vara härdad mot relänkning av stora modeller verkar vara så omfattande att det blir enormt ineffektivt.