Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich möchte ein wenig zu diesem Thema fortfahren, über das ich (bis jetzt) sehr wenig Besorgnis sehe. Es gibt riesige Mengen an privaten Daten, die wir an verschiedenen Orten angesammelt haben, einschließlich Messaging-Apps. Eine echte "Killer-App" für Gen AI besteht darin, diese Daten zu erfassen und in Einnahmen umzuwandeln.
Wenn Sie beispielsweise einige sichere Messaging-Apps verwenden, werden Sie feststellen, dass sie sehr hilfreich sind, um Ihren Gesprächsverlauf zu sichern, damit „Sie keine Daten verlieren“. Ich weiß, dass sich einige Leute wirklich darauf verlassen, aber es bedeutet auch (zufällig), dass Sie einen riesigen Datenberg mit sich herumtragen.
Diese Daten sind derzeit für Werbefirmen völlig im Dunkeln. Ist es wertvoll? Ich weiß es nicht. Vielleicht existiert alles, was profitabel daraus extrahiert werden kann, bereits in einem öffentlichen Forum! Aber sicher möchte jemand herausfinden, ob das so ist.
Ähnlich gibt es viele Dinge auf deinem Computer oder Telefon, die einer Tech-Firma oder einer anderen "bekannt" sind, aber vielleicht nicht jeder Tech-Firma. Zum Beispiel hat Google Jahre meiner E-Mails und viele Cloud-Dokumente, aber Meta, Claude und OpenAI nicht. Doch.
Ich weiß jetzt nicht, wie die Zukunft aussieht. Vielleicht leben wir in zehn Jahren in einer KI-Utopie oder -Dystopie und Bedenken über gezielte Werbung sind nostalgisch. Aber wenn Sie die Geschäftsmodelle von heute in Betracht ziehen, ist die Ausbeutung all dieser Daten die nächste Grenze.
All dies erfordert, dass die Menschen überzeugt werden, hilfreiche AI-Tools lokal zu installieren und diesen Tools Zugang zu den relevanten Datenspeichern zu gewähren. Diese Tools sind bereits von den meisten AI-Unternehmen verfügbar, und Technologieunternehmen haben alle "AI-Strategien" für ihre bestehenden Apps.
Jetzt werden Ihnen die Leute sagen, dass dies mit lokalen Modellen und TEEs gemacht werden kann. Ja, das kann es. Aber um etwas Nützliches zu tun (außer Ihnen beim Verfassen von Texten und Zusammenfassen von Dingen zu helfen), müssen diese Werkzeuge Dinge in der Welt tun. Das schafft zunächst ein unbeabsichtigtes Risiko der Datenexposition.
Ich spreche (noch) nicht von Unternehmen, die absichtlich versuchen, Daten zu monetarisieren. Im Moment spreche ich nur über das Risiko einer unbeabsichtigten (oder böswilligen) Exfiltration. Prompt-Injection-Angriffe, die ein Modell dazu bringen, private Daten nach außen zu leiten.
Wir haben noch nicht den ersten echten Prompt-Injection-„Wurm“ in der realen Welt gesehen. Aber ich wette, wir werden es! Es wird spannend. Der Stand der Technik zur Verteidigung gegen dieses Risiko ist… gerade ein bisschen vage.
Zum Beispiel sind unsere besten Ideen im Moment: "Lass niemals etwas private/öffentliche Grenzen überschreiten", was für viele Aufgaben nicht wirklich nützlich ist. Oder "Verwende Modelle, um auf Datenschutzverletzungen zu überprüfen", was mich an die Dr. Seuss-Geschichte über den König erinnert, der Katzen einsetzt, um die Mäuse zu fangen, die seinen Käse stehlen.
Aber diese Sorge ist sekundär. Das eigentliche Risiko besteht darin, dass die Unternehmen, die diese Dinge entwickeln, es *absichtlich* so gestalten, dass sie Erkenntnisse extrahieren. Stellen Sie sich einen Agenten vor, der für Sie eine Suche durchführt, indem er eine offene Suchmaschine verwendet. Das Senden privater Erkenntnisse macht die Suche nützlicher!
Also, deine privaten Daten sagen dem lokalen/TEE-Modell, was dir gefällt. Du bittest den Agenten, nach Produkten zu suchen. Wie viele private Informationen über deine Vorlieben gehen absichtlich mit dieser Suche einher?
Die Antwort, soweit ich sehen kann, ist: viel! Je mehr Kontext eine Suchmaschine über Ihre Wünsche hat, desto besser sind die Ergebnisse. Und zufällig ist auch das Targeting und Tracking von Anzeigen besser.
Ein Einwand dagegen ist: Wen interessiert's! Vielleicht ist das einfach die Art und Weise, wie die Welt jetzt funktioniert. Wir können sogar Modelle entwickeln, die "privat" verfolgen und dir Werbung zeigen, was bedeutet, dass sie all deine vertraulichen Daten lesen und sie nur nutzen, um dir die richtige Seife zu verkaufen. Ist das so schlimm?
Natürlich wird es gleichzeitig Regierungen geben, die Zugang zu diesen Erkenntnissen wollen. Wenn man diese Daten nutzen könnte, um Kriminelle (oder potenzielle Kriminelle) zu verfolgen und zu identifizieren, ohne ihre Daten buchstäblich zu lesen, wäre das nicht ein erstaunliches Ermittlungswerkzeug?
Das sind keine zukünftigen Anliegen wie AGi. Gen AI kann all das jetzt schon tun. Daher arbeiten alle Unternehmen daran, diese Ideen heute umzusetzen. Regierungen (wie die EU) fordern bereits Zugang zu Modellen, die private Daten lesen.
Was auch immer wir wählen, ich möchte, dass die Menschen diese Entscheidungen mit offenen Augen treffen. Ich möchte nicht, dass jemand sagt: „Oh, nun, dieses Feature behauptet, privat zu sein, also warum nicht einmal auf Ok klicken“ und fünf Jahre vertrauliche Daten in die Eingabepipeline fließen.
Die Menschen dazu zu bringen, sich darum zu kümmern, ist wie zu versuchen, einen Teenager dazu zu bringen, Sonnencreme zu tragen. Alle Risiken erscheinen so theoretisch, und die Vorteile liegen alle in der Gegenwart. Ich möchte einfach nicht, dass wir eines Tages aufwachen und uns wünschen, wir hätten die Dinge anders gemacht.
180
Top
Ranking
Favoriten
