Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ein physik-informiertes GNN, das die Gesetze von Newton aus Daten lernt – und auf Systeme extrapoliert, die 35× größer sind
Die meisten neuronalen Netzwerke für die physikalische Simulation sind datenhungrig und anfällig. Trainiert man sie mit einer Konfiguration, fallen sie auseinander, wenn man die Randbedingungen ändert, das System vergrößert oder lange Rollouts durchführt. Das grundlegende Problem: Diese Modelle lernen Korrelationen, keine Erhaltungsgesetze.
Vinay Sharma und Olga Fink verfolgen mit Dynami-CAL GraphNet einen anderen Ansatz. Anstatt zu hoffen, dass das Netzwerk die Physik entdeckt, betten sie sie direkt in die Architektur ein. Die zentrale Erkenntnis: Das dritte Gesetz von Newton garantiert, dass innere Kräfte den linearen und den Drehimpuls erhalten – selbst wenn Energie durch Reibung oder unelastische Kollisionen dissipiert wird.
Sie erreichen dies durch einen neuartigen kantenlokalen Referenzrahmen, der SO(3)-äquivariant, translationsinvariant und antisymmetrisch unter Knotenwechsel ist. Kräfte, die aus Kanten-Embeddings decodiert werden, sind automatisch gleich und entgegengesetzt. Der Drehimpuls erhält die gleiche Behandlung: Das Netzwerk sagt sowohl innere Drehmomente als auch den Punkt der Kraftanwendung voraus und isoliert die Drehung von den orbitalen Beiträgen.
Die Ergebnisse sind beeindruckend. Trainiert mit nur fünf Trajektorien von 60 kollidierenden Kugeln in einer stationären Box, extrapoliert das Modell auf einen rotierenden zylindrischen Trichter mit 2.073 Partikeln – und hält stabile, physikalisch konsistente Rollouts über 16.000 Zeitschritte aufrecht. Bei eingeschränkten N-Körper-Systemen, menschlicher Bewegungsaufnahme und molekularer Dynamik von Proteinen übertrifft es spezialisierte Baselines und benötigt dabei weniger Daten.
Die Botschaft: Wenn man Erhaltungsgesetze in die Architektur einbackt, anstatt in die Verlustfunktion, erhält man Modelle, die über Skalen, Geometrien und Randbedingungen generalisieren – weil sie von Anfang an den richtigen induktiven Bias gelernt haben.
Papier:

Top
Ranking
Favoriten
