Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Google entrenó un modelo con millones de mensajes de usuarios.
Sin ver ni un solo mensaje.
Se llama Aprendizaje Federado. Google, Apple, Meta y todas las grandes empresas tecnológicas lo usan.
Déjame explicarte cómo funciona:
Imagina que quieres construir un teclado que prediga lo que los usuarios escriben a continuación.
¿Los mejores datos de entrenamiento? Mensajes reales de millones de teléfonos. Pero no puedes cobrarlo. Es privado, delicado, y los usuarios se rebelarían.
El aprendizaje federado da la vuelta a la situación. En lugar de llevar datos al modelo, llevas el modelo a los datos.
Así es como:
"Envía el modelo."
Tu teléfono descarga una pequeña red neuronal. Está disponible localmente en tu dispositivo.
→ Este es el modelo global W
"Entrena donde residen los datos."
Mientras escribes, tu móvil aprende tus patrones en silencio. "omw" → "estaré allí en 10". Calcula cómo debería mejorar el modelo.
→ Estos son gradientes locales ΔW
"Devuélveme solo los aprendizajes."
Tu móvil envía actualizaciones de peso al servidor. No tus mensajes. No tu historial de escritura. Solo matemáticas.
→ Este es el paso de agregación de actualizaciones
"Promedia en miles de dispositivos"
El servidor combina actualizaciones de miles de teléfonos. Los patrones comunes refuerzan. Las peculiaridades individuales se anulan.
→ Esto es FedAvg: W_new = W + (1/n) × Σ(ΔWk)
Cuatro escalones. No salen datos en bruto de tu dispositivo. Solo una coordinación elegante (consulta la imagen más abajo).
Lo mejor:
Esto desbloquea datos que antes eran imposibles de usar.
Los hospitales colaboran en la detección del cáncer sin compartir las exploraciones de los pacientes. Los bancos construyen modelos de fraude sin exponer las operaciones. Los hogares inteligentes aprenden sus preferencias sin que los momentos privados tengan que caer en la nube.
La privacidad y la utilidad no son compensaciones. Respetar los límites de los datos es lo que hace posible el modelo.
Así que antes de centralizarlo todo, considera: los mejores datos de entrenamiento pueden ya existir, atrapados en dispositivos a los que nunca accederás directamente.
En el siguiente tuit he compartido un vídeo explicativo muy bueno sobre esto.

Explicación de aprendizaje federado por IBM:

1.7K
Populares
Ranking
Favoritas
