Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jag vill fortsätta lite med detta ämne, som jag (hittills) ser väldigt liten oro över. Det finns enorma lager av privat data som vi har byggt upp på olika platser, inklusive meddelandeappar. En verklig "killer-app" för Gen AI är att ta in dem och omvandla den datan till intäkter.
Till exempel, om du använder några säkra meddelandeappar, kommer du märka att de är väldigt hjälpsamma för att säkerhetskopiera din konversationshistorik så att "du inte förlorar data". Jag vet att vissa verkligen förlitar sig på detta, men det betyder också (av en slump) att du har burit runt på en enorm hög data.
Den datan är för närvarande helt okänd för reklambolagen. Är det värdefullt? Jag vet inte. Kanske finns allt som kan utvinnas lönsamt redan i ett offentligt forum! Men någon vill väl ta reda på det.
På samma sätt finns det mycket på din dator eller telefon som "är känt" av ett eller annat teknikföretag, men kanske inte av alla teknikföretag. Till exempel har Google år av min e-post och massor av molndokument, men Meta, Claude och OpenAI har det inte. Än.
Nu vet jag inte framtiden. Kanske lever vi om tio år i en AI-utopi eller dystopi och oron för riktade annonser är gammaldags. Men om du tänker på dagens affärsmodeller är att utnyttja all den datan nästa gräns.
Allt detta kräver att man övertygar människor att installera hjälpsamma AI-verktyg lokalt och ge dessa verktyg tillgång till relevanta datalager. Dessa verktyg finns redan tillgängliga från de flesta AI-företag, och teknikföretag har alla "AI-strategier" för sina befintliga appar.
Nu kommer folk att säga att detta kan göras med lokala modeller och TEE:er. Ja, det kan det. Men för att göra något användbart (förutom att hjälpa dig att skriva texter och sammanfatta saker) måste dessa verktyg göra saker i världen. Det skapar för det första en oavsiktlig risk för dataexponering.
Jag pratar inte (ännu) om att företag medvetet försöker tjäna pengar på data. Just nu pratar jag bara om oavsiktlig (eller illvillig) exfiltrationsrisk. Prompt injection-attacker som får en modell att skicka ut privat data.
Vi har ännu inte sett den första verkliga promptinjektionsmasken. Men jag slår vad om att vi kommer göra det! Det kommer att bli spännande. Teknikens senaste försvar mot denna risk är... Lite fluffigt just nu.
Till exempel är våra bästa idéer just nu "låt aldrig något korsa privata/offentliga gränser" vilket inte är särskilt användbart för många uppgifter. Eller "använd modeller för att kontrollera om integriteten kränks" vilket påminner mig om den där Dr. Seuss-historien om kungen som använder katter för att jaga möss som stjäl hans ost.
Men den oron är sekundär. Den verkliga risken är att företagen som bygger detta kommer *medvetet* att konstruera det för att utvinna insikter. Tänk på en agent som gör en sökning åt dig, med en öppen sökmotor. Att skicka privata insikter gör sökningen mer användbar!
Så din privata data talar om för lokal/TEE-modellen vad du gillar. Du ber agenten leta efter produkter. Hur mycket privat information om dina preferenser följer medvetet med den sökningen?
Svaret, såvitt jag kan se, är: mycket! Ju mer kontext en sökmotor har om dina önskemål, desto bättre blir resultaten. Och av en slump, desto bättre är annonsinriktningen och spårningen.
Ett motargument till detta är: vem bryr sig! Kanske är det bara så här världen kommer att fungera nu. Vi kan till och med bygga modeller som spårar och annonserar till dig "privat", vilket betyder att de läser all din konfidentiella data och bara använder den för att sälja dig rätt tvål. Är det så illa?
Självklart, samtidigt, kommer det att finnas regeringar som vill ha tillgång till dessa insikter. Om du kunde använda denna data för att spåra och identifiera brottslingar (eller potentiella brottslingar) utan att bokstavligen läsa deras data, skulle inte det vara ett fantastiskt utredningsverktyg?
Det här är inte framtida bekymmer som AGi är. Gen AI kan göra allt detta just nu. Så företagen arbetar alla med att implementera dessa idéer idag. Regeringar (som EU) begär redan tillgång till modeller som läser privata data.
Vad vi än väljer att göra vill jag att folk ska göra de valen med öppna ögon. Jag vill inte att någon ska säga "ja, den här funktionen påstår sig vara privat så varför inte klicka på Okej den här gången" och att fem års konfidentiell data flödar in i insamlingskedjan.
Att försöka få folk att bry sig om detta är som att försöka få en tonåring att använda solkräm. Alla risker låter så teoretiska, och fördelarna finns alla i nuet. Jag vill bara inte att vi alla en dag ska vakna och önska att vi hade gjort saker annorlunda.
194
Topp
Rankning
Favoriter
