Como o ruído cria ordem: Um princípio universal que liga a física e o aprendizado de máquina O ruído é geralmente o inimigo da estrutura. No entanto, em certos sistemas—desde suspensões coloidais cortadas até algoritmos de otimização estocástica—interações locais ruidosas geram paradoxalmente uma ordem espacial de longo alcance. Este fenômeno, chamado de hiperuniformidade, suprime flutuações de densidade em grandes escalas, mas como ele emerge de dinâmicas locais e ruidosas puras tem permanecido uma questão em aberto por duas décadas. Satyam Anand, Guanming Zhang e Stefano Martiniani estudam três sistemas paradigmáticos: organização aleatória (RO) e organização aleatória enviesada (BRO) da física da matéria macia, e descida de gradiente estocástico (SGD) do aprendizado de máquina. Cada sistema tem fontes de ruído microscópico fundamentalmente diferentes—direções de chutes aleatórios em RO, magnitudes de chutes aleatórios em BRO, e seleção aleatória de partículas em SGD—no entanto, todos passam pela mesma transição de fase de absorção para ativa à medida que a densidade de partículas aumenta. A descoberta chave: apesar dessas diferenças microscópicas, todos os três sistemas exibem um comportamento universal de longo alcance idêntico, governado por um único parâmetro—o coeficiente de correlação de ruído c entre pares de partículas. Quando o ruído par a par é não correlacionado (c = 0), os sistemas permanecem desordenados. À medida que c se aproxima de −1 (anti-correlacionado, chutes que conservam momento), a escala de comprimento de crossover para a supressão de densidade diverge, e os sistemas tornam-se fortemente hiperuniformes. Os autores desenvolvem uma teoria hidrodinâmica flutuante que prevê quantitativamente o fator de estrutura em todos os sistemas sem parâmetros livres. Talvez o mais impressionante seja a conexão com o aprendizado de máquina: o mesmo ruído anti-correlacionado que produz hiperuniformidade também enviesada o SGD em direção a regiões mais planas do espaço de energia—o próprio recurso ligado à robusta generalização em redes neurais. Frações de lote mais baixas e taxas de aprendizado mais altas, conhecidas empiricamente por melhorar a generalização, produzem tanto uma estrutura de longo alcance mais forte quanto mínimos mais planos em sistemas de partículas. A implicação é poderosa: a tendência do SGD de encontrar mínimos planos não é uma peculiaridade das paisagens de perda de redes neurais, mas uma marca universal da otimização estocástica em espaços de alta dimensão—abrindo novas avenidas desde o design de materiais hiperuniformes até a compreensão do porquê o aprendizado profundo generaliza.