Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Google tränade en modell på miljontals användares meddelanden.
Utan att någonsin se ett enda meddelande.
Det kallas Federated Learning. Google, Apple, Meta och alla stora teknikföretag använder det.
Låt mig förklara hur det fungerar:
Föreställ dig att du vill bygga ett tangentbord som förutser vad användare skriver härnäst.
Den bästa träningsdatan? Faktiska meddelanden från miljontals telefoner. Men du kan inte hämta det. Det är privat, känsligt och användarna skulle göra uppror.
Federated learning vänder på det hela. Istället för att föra data till modellen, tar du modellen till datan.
Så här går det till:
"Skicka ut modellen."
Din telefon laddar ner ett litet neuralt nätverk. Den finns lokalt på din enhet.
→ Detta är den globala modellen W
"Träna där datan finns."
Medan du skriver lär sig din telefon tyst dina mönster. "omw" → "vara där om 10". Den beräknar hur modellen ska förbättras.
→ Dessa är lokala gradienter ΔW
"Skicka bara tillbaka lärdomarna."
Din telefon skickar viktuppdateringar till servern. Inte dina meddelanden. Inte din skrivhistorik. Bara matte.
→ Detta är steget för uppdateringsaggregering
"Genomsnittligt över tusentals enheter"
Servern samlar uppdateringar från tusentals telefoner. Vanliga mönster förstärker. Individuella quirks tar ut varandra.
→ Detta är FedAvg: W_new = W + (1/n) × Σ(ΔWk)
Fyra steg. Ingen rådata lämnar din enhet. Bara elegant samordning (se bilden nedan).
Det bästa:
Detta låser upp data som tidigare var omöjlig att använda.
Sjukhus samarbetar kring cancerupptäckt utan att dela patientundersökningar. Banker bygger bedrägerimodeller utan att exponera transaktioner. Smarta hem lär sig preferenser utan privata stunder som når molnet.
Integritet och nytta är inga kompromisser. Att respektera datagränser är det som gör modellen möjlig.
Så innan du centraliserar allt, tänk på: den bästa träningsdatan kan redan finnas, fast på enheter du aldrig kommer att komma åt direkt.
I nästa tweet har jag delat en riktigt bra video som förklarar detta.

Federated learning-förklaring av IBM:

1,69K
Topp
Rankning
Favoriter
