Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ik wil hier een beetje op doorgaan, een onderwerp waar (tot nu toe) ik zeer weinig bezorgdheid over zie. Er zijn enorme hoeveelheden privégegevens die we op verschillende plaatsen hebben opgebouwd, waaronder messaging-apps. Een echte "killer app" voor Gen AI is om deze gegevens te verwerken en die data om te zetten in inkomsten.
Bijvoorbeeld, als je enkele veilige messaging-apps gebruikt, zul je merken dat ze erg behulpzaam zijn bij het maken van een back-up van je gespreksgeschiedenis, zodat "je geen gegevens verliest". Ik weet dat sommige mensen hier echt op vertrouwen, maar het betekent ook (toevallig) dat je een enorme hoeveelheid gegevens met je meedraagt.
Die gegevens zijn momenteel volledig duister voor advertentiebedrijven. Is het waardevol? Ik weet het niet. Misschien bestaat alles wat er winstgevend uit kan worden gehaald al in een openbaar forum! Maar zeker wil iemand erachter komen.
Evenzo is er veel op je computer of telefoon dat "bekend" is bij het ene technologiebedrijf of het andere, maar misschien niet bij elk technologiebedrijf. Bijvoorbeeld, Google heeft jaren van mijn e-mail en veel clouddocumenten, maar Meta en Claude en OpenAI niet. Toch.
Nu weet ik niet wat de toekomst brengt. Misschien leven we over tien jaar in een AI-utopie of dystopie en zijn zorgen over gerichte advertenties ouderwets. Maar als je de businessmodellen van vandaag overweegt, is het exploiteren van al die data de volgende grens.
Dit alles vereist dat mensen overtuigd worden om nuttige AI-tools lokaal te installeren en die tools toegang te geven tot de relevante gegevensopslag. Die tools zijn al beschikbaar bij de meeste AI-bedrijven, en technologiebedrijven hebben allemaal "AI-strategieën" voor hun bestaande apps.
Nu zullen mensen je vertellen dat dit kan worden gedaan met lokale modellen en TEE's. Ja, dat kan. Maar om iets nuttigs te doen (behalve je helpen teksten te schrijven en dingen samen te vatten) moeten die tools dingen in de wereld doen. Dat creëert, ten eerste, een onbedoeld risico op gegevensblootstelling.
Ik heb het (nog) niet over bedrijven die opzettelijk proberen gegevens te monetiseren. Op dit moment heb ik het alleen over het risico van accidentele (of kwaadaardige) exfiltratie. Prompt-injectieaanvallen die ervoor zorgen dat een model privégegevens naar buiten lekt.
We hebben nog niet de eerste echte prompt-injectie "worm" in de echte wereld gezien. Maar ik wed dat we dat zullen doen! Het zal spannend zijn. De stand van zaken als het gaat om het verdedigen tegen dit risico is... momenteel een beetje vaag.
Bijvoorbeeld, onze beste ideeën op dit moment zijn "laat nooit iets de privé/openbare grenzen overschrijden" wat niet echt nuttig is voor veel taken. Of "gebruik modellen om te controleren op privacyschendingen" wat me doet denken aan dat Dr. Seuss-verhaal over de koning die katten gebruikt om de muizen te achtervolgen die zijn kaas stelen.
Maar die zorg is secundair. Het echte risico is dat de bedrijven die deze dingen bouwen het *opzettelijk* zo ontwerpen om inzichten te extraheren. Denk aan een agent die een zoekopdracht voor je uitvoert, met behulp van een open zoekmachine. Het verzenden van privé-inzichten maakt zoeken nuttiger!
Dus je privégegevens vertellen het lokale/TEE-model wat je leuk vindt. Je vraagt de agent om naar producten te zoeken. Hoeveel privé-informatie over je voorkeuren gaat daar bewust mee in die zoektocht?
Het antwoord, voor zover ik kan zien, is: veel! Hoe meer context een zoekmachine heeft over jouw wensen, hoe beter de resultaten. En toevallig, hoe beter de advertentiedoelgroep en tracking.
Een tegenargument hiervoor is: wie geeft erom! Misschien is dit gewoon hoe de wereld nu zal werken. We kunnen zelfs modellen bouwen die "privé" naar je adverteren, wat betekent dat ze al je vertrouwelijke gegevens lezen en deze gewoon gebruiken om je de juiste zeep te verkopen. Is dat zo erg?
Natuurlijk zullen er tegelijkertijd regeringen zijn die toegang willen tot die inzichten. Als je deze gegevens zou kunnen gebruiken om criminelen (of potentiële criminelen) te volgen en te identificeren zonder letterlijk hun gegevens te lezen, zou dat dan geen geweldig onderzoeksinstrument zijn?
Dit zijn geen toekomstige zorgen zoals AGi dat is. Gen AI kan dit allemaal nu al doen. Dus werken bedrijven er allemaal aan om deze ideeën vandaag te implementeren. Overheden (zoals de EU) vragen al toegang tot modellen die privégegevens lezen.
Wat we ook kiezen om te doen, ik wil dat mensen die keuzes maken met hun ogen open. Ik wil niet dat iemand zegt "oh, nou, deze functie beweert privé te zijn, dus waarom niet deze keer op Ok klikken" en vijf jaar aan vertrouwelijke gegevens in de verwerkingspipeline vloeien.
Proberen mensen om dit te laten geven om is als proberen een tiener zonnebrandcrème te laten dragen. Alle risico's klinken zo theoretisch, en de voordelen zijn allemaal in het heden. Ik wil gewoon niet dat we op een dag wakker worden en wensen dat we dingen anders hadden gedaan.
193
Boven
Positie
Favorieten
