Cómo el ruido crea orden: Un principio universal que vincula la física y el aprendizaje automático El ruido suele ser el enemigo de la estructura. Sin embargo, en ciertos sistemas —desde suspensiones coloidales cortadas hasta algoritmos de optimización estocástica— las interacciones locales ruidosas generan paradójicamente un orden espacial a largo alcance. Este fenómeno, llamado hiperuniformidad, suprime las fluctuaciones de densidad a gran escala, pero cómo surge de dinámicas puramente locales y ruidosas ha permanecido en cuestión durante dos décadas. Satyam Anand, Guanming Zhang y Stefano Martiniani estudian tres sistemas paradigmáticos: organización aleatoria (RO) y organización aleatoria sesgada (BRO) de la física de la materia blanda, y descenso de gradientes estocásticos (SGD) del aprendizaje automático. Cada sistema tiene fuentes de ruido microscópicas fundamentalmente diferentes—direcciones aleatorias de impulso en RO, magnitudes aleatorias de patada en BRO y selección aleatoria de partículas en SGD—pero todos sufren la misma transición de fase absorbente a activa a medida que aumenta la densidad de partículas. El hallazgo clave: a pesar de estas diferencias microscópicas, los tres sistemas muestran un comportamiento universal idéntico a largo alcance, gobernado por un único parámetro: el coeficiente de correlación de ruido c entre pares de partículas. Cuando el ruido por pares no está correlacionado (c = 0), los sistemas permanecen desordenados. A medida que c se acerca a −1 (impulsos anticorrelacionados que conservan el momento), la escala de longitud de cruce para la supresión de densidad diverge y los sistemas se vuelven fuertemente hiperuniformes. Los autores desarrollan una teoría hidrodinámica fluctuante que predice cuantitativamente el factor de estructura en todos los sistemas sin parámetros libres. Quizá lo más llamativo sea la conexión con el aprendizaje automático: el mismo ruido anticorrelacionado que produce hiperuniformidad también sesga la SGD hacia regiones más planas del paisaje energético — la característica misma vinculada a la generalización robusta en redes neuronales. Facciones de lotes más bajas y tasas de aprendizaje más altas, conocidas empíricamente por mejorar la generalización, producen tanto una estructura de largo alcance más fuerte como mínimos más planos en sistemas de partículas. La implicación es poderosa: la tendencia de la SGD a encontrar mínimos planos no es una peculiaridad de los paisajes de pérdida de redes neuronales, sino una característica universal de la optimización estocástica en espacios de alta dimensión, abriendo nuevas vías desde el diseño de materiales hiperuniformes hasta la comprensión de por qué el aprendizaje profundo se generaliza. Papel: