Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Google hat ein Modell auf Millionen von Nachrichten von Nutzern trainiert.
Ohne jemals eine einzige Nachricht gesehen zu haben.
Es heißt Föderiertes Lernen. Google, Apple, Meta und jedes große Technologieunternehmen nutzen es.
Lass mich erklären, wie es funktioniert:
Stell dir vor, du möchtest eine Tastatur entwickeln, die vorhersagt, was Nutzer als Nächstes tippen.
Die besten Trainingsdaten? Tatsächliche Nachrichten von Millionen von Handys. Aber du kannst sie nicht sammeln. Sie sind privat, sensibel, und die Nutzer würden sich aufregen.
Föderiertes Lernen kehrt das Skript um. Anstatt Daten zum Modell zu bringen, bringst du das Modell zu den Daten.
So funktioniert es:
"Schicke das Modell hinaus."
Dein Handy lädt ein kleines neuronales Netzwerk herunter. Es lebt lokal auf deinem Gerät.
→ Das ist das globale Modell W
"Trainiere dort, wo die Daten leben."
Während du tippst, lernt dein Handy stillschweigend deine Muster. "omw" → "bin in 10 da". Es berechnet, wie das Modell verbessert werden sollte.
→ Das sind lokale Gradienten ΔW
"Schicke nur die Lernfortschritte zurück."
Dein Handy sendet Gewichtungsaktualisierungen an den Server. Nicht deine Nachrichten. Nicht deine Tippgeschichte. Nur Mathematik.
→ Das ist der Schritt zur Aktualisierungsaggregation
"Durchschnitt über Tausende von Geräten"
Der Server kombiniert Aktualisierungen von Tausenden von Handys. Gemeinsame Muster verstärken sich. Individuelle Eigenheiten heben sich auf.
→ Das ist FedAvg: W_neu = W + (1/n) × Σ(ΔWₖ)
Vier Schritte. Keine Rohdaten verlassen dein Gerät. Nur elegante Koordination (siehe das visuelle unten).
Das Beste daran:
Das schaltet Daten frei, die zuvor unmöglich zu nutzen waren.
Krankenhäuser arbeiten bei der Krebsdiagnose zusammen, ohne Patientenscans zu teilen. Banken erstellen Betrugsmodelle, ohne Transaktionen offenzulegen. Smarte Häuser lernen Vorlieben, ohne private Momente in die Cloud zu senden.
Privatsphäre und Nutzen sind keine Kompromisse. Die Achtung der Datengrenzen macht das Modell möglich.
Also bevor du alles zentralisierst, überlege: Die besten Trainingsdaten könnten bereits existieren, gefangen auf Geräten, auf die du niemals direkt zugreifen wirst.
Im nächsten Tweet habe ich ein wirklich gutes Video erklärt, das dies veranschaulicht.

Erklärung des föderierten Lernens von IBM:

1,71K
Top
Ranking
Favoriten
