Wie Lärm Ordnung schafft: Ein universelles Prinzip, das Physik und maschinelles Lernen verbindet Lärm ist normalerweise der Feind von Struktur. Doch in bestimmten Systemen – von gescherten kolloidalen Suspensionen bis hin zu stochastischen Optimierungsalgorithmen – erzeugen laute lokale Interaktionen paradoxerweise langfristige räumliche Ordnung. Dieses Phänomen, genannt Hyperuniformität, unterdrückt Dichtefluktuationen in großen Maßstäben, aber wie es aus rein lokalen, lauten Dynamiken entsteht, bleibt seit zwei Jahrzehnten eine offene Frage. Satyam Anand, Guanming Zhang und Stefano Martiniani untersuchen drei paradigmatische Systeme: zufällige Organisation (RO) und verzerrte zufällige Organisation (BRO) aus der Weichmateriefysik sowie stochastischen Gradientenabstieg (SGD) aus dem maschinellen Lernen. Jedes System hat grundlegend unterschiedliche mikroskopische Lärmquellen – zufällige Kickrichtungen in RO, zufällige Kickgrößen in BRO und zufällige Partikelauswahl in SGD – dennoch durchlaufen alle dasselbe Absorptions-zu-aktiven Phasenübergang, wenn die Partikeldichte zunimmt. Die wichtigste Erkenntnis: Trotz dieser mikroskopischen Unterschiede zeigen alle drei Systeme identisches universelles Langstreckenverhalten, das von einem einzigen Parameter gesteuert wird – dem Lärm-Korrelationskoeffizienten c zwischen Partikelpaaren. Wenn der paarweise Lärm unkorreliert ist (c = 0), bleiben die Systeme ungeordnet. Wenn c sich −1 nähert (anti-korreliert, impulsbeibehaltende Kicks), divergiert die Übergangslänge für die Dichteunterdrückung, und die Systeme werden stark hyperuniform. Die Autoren entwickeln eine fluktuierende hydrodynamische Theorie, die den Strukturfaktor über alle Systeme hinweg quantitativ vorhersagt, ohne freie Parameter. Vielleicht am auffälligsten ist die Verbindung zum maschinellen Lernen: Der gleiche anti-korrelierten Lärm, der Hyperuniformität erzeugt, neigt auch dazu, SGD in Richtung flacherer Regionen der Energielandschaft zu verzerren – genau das Merkmal, das mit robuster Generalisierung in neuronalen Netzwerken verbunden ist. Niedrigere Batch-Fraktionen und höhere Lernraten, die empirisch bekannt sind, um die Generalisierung zu verbessern, erzeugen sowohl stärkere Langstreckenstruktur als auch flachere Minima in Partikelsystemen. Die Implikation ist mächtig: Die Tendenz von SGD, flache Minima zu finden, ist kein Eigenart der Verlustlandschaften neuronaler Netzwerke, sondern ein universelles Merkmal der stochastischen Optimierung in hochdimensionalen Räumen – was neue Wege eröffnet, von der Gestaltung hyperuniformer Materialien bis hin zum Verständnis, warum tiefes Lernen generalisiert.