Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jeg vil fortsette litt med dette temaet, som jeg (så langt) ser svært liten bekymring for. Det finnes enorme lagre av privat data som vi har samlet opp på ulike steder, inkludert meldingsapper. En virkelig «killer-app» for Gen AI er å ta inn dataene og gjøre dataene om til inntekter.
For eksempel, hvis du bruker noen sikre meldingsapper, vil du merke at de er veldig hjelpsomme med å sikkerhetskopiere samtalehistorikken din slik at «du ikke mister data». Jeg vet at noen virkelig stoler på dette, men det betyr også (tilfeldigvis) at du har båret rundt på en enorm mengde data.
Disse dataene er for øyeblikket helt ukjente for annonseselskapene. Er det verdifullt? Jeg vet ikke. Kanskje alt som kan utvinnes lønnsomt allerede eksisterer i et offentlig forum! Men sikkert vil noen finne det ut.
På samme måte er det mye på datamaskinen eller telefonen din som «er kjent» for ett teknologiselskap eller et annet, men kanskje ikke for alle teknologiselskaper. For eksempel har Google mange års e-post og mange skydokumenter, men Meta og Claude og OpenAI har det ikke. Ennå.
Nå vet jeg ikke fremtiden. Kanskje lever vi om ti år i et AI-utopia eller dystopi, og bekymringene for målrettede annonser er gammeldagse. Men hvis du vurderer dagens forretningsmodeller, er utnyttelsen av all den dataen neste grense.
Alt dette krever at folk overbevises om å installere nyttige AI-verktøy lokalt og gi disse verktøyene tilgang til relevante datalagre. Disse verktøyene er allerede tilgjengelige fra de fleste AI-selskaper, og teknologiselskaper har alle "AI-strategier" for sine eksisterende apper.
Folk vil fortelle deg at dette kan gjøres med lokale modeller og TEE-er. Ja, det kan det. Men for å gjøre noe nyttig (bortsett fra å hjelpe deg med å skrive tekster og oppsummere ting) må disse verktøyene gjøre ting i verden. Det skaper, for det første, en utilsiktet risiko for dataeksponering.
Jeg snakker ikke (ennå) om firmaer som bevisst prøver å tjene penger på data. Akkurat nå snakker jeg bare om utilsiktet (eller ondsinnet) eksfiltrasjonsrisiko. Prompt injection-angrep som får en modell til å sende private data utover.
Vi har ennå ikke sett den første virkelige promptinjeksjons-"ormen". Men jeg vedder på at vi gjør det! Det blir spennende. Dagens forsvar mot denne risikoen er... Litt fluffy akkurat nå.
For eksempel er våre beste ideer akkurat nå «aldri la noe krysse private/offentlige grenser», noe som ikke er særlig nyttig for mange oppgaver. Eller «bruk modeller for å sjekke for personvernbrudd», som minner meg om den Dr. Seuss-historien om kongen som bruker katter for å jage musene som stjeler osten hans.
Men den bekymringen er sekundær. Den reelle risikoen er at firmaene som bygger dette *bevisst* vil konstruere det for å hente ut innsikt. Vurder en agent som gjør et søk for deg, ved hjelp av en åpen søkemotor. Å sende private innsikter gjør søket mer nyttig!
Så dine private data forteller den lokale/TEE-modellen hva du liker. Du ber agenten se etter produkter. Hvor mye privat informasjon om dine preferanser følger med det søket, bevisst?
Svaret, så vidt jeg kan se, er: mange! Jo mer kontekst en søkemotor har om dine ønsker, desto bedre blir resultatene. Og tilfeldigvis er annonsemålrettingen og sporingen bedre.
Et motargument til dette er: hvem bryr seg! Kanskje er det bare slik verden fungerer nå. Vi kan til og med bygge modeller som sporer og annonserer til deg «privat», noe som betyr at de leser all konfidensiell data og bare bruker den til å selge deg riktig såpe. Er det så ille?
Selvfølgelig vil det samtidig være regjeringer som ønsker tilgang til disse innsiktene. Hvis du kunne bruke disse dataene til å spore og identifisere kriminelle (eller potensielle kriminelle) uten bokstavelig talt å lese dataene deres, ville ikke det vært et fantastisk etterforskningsverktøy?
Dette er ikke fremtidige bekymringer slik som AGi er. Gen AI kan gjøre alt dette akkurat nå. Derfor jobber alle firmaer med å implementere disse ideene i dag. Regjeringer (som EU) ber allerede om tilgang til modeller som leser private data.
Uansett hva vi velger å gjøre, vil jeg at folk skal ta de valgene med åpne øyne. Jeg vil ikke at noen skal si «åh, vel, denne funksjonen hevder å være privat, så hvorfor ikke klikke OK denne ene gangen» og at fem års konfidensiell data flyter inn i inntaksprosessen.
Å prøve å få folk til å bry seg om dette er som å prøve å få en tenåring til å bruke solkrem. Alle risikoene høres så teoretiske ut, og fordelene er alle i nåtiden. Jeg vil bare ikke at vi alle skal våkne en dag og ønske at vi hadde gjort ting annerledes.
188
Topp
Rangering
Favoritter
