Een fysica-geïnformeerde GNN die de wetten van Newton uit gegevens leert—en extrapoleert naar systemen 35× groter De meeste neurale netwerken voor fysicasimulatie zijn data-hongerig en kwetsbaar. Train ze op één configuratie, en ze vallen uit elkaar wanneer je de randvoorwaarden verandert, het systeem opschaalt of lange uitroltijden uitvoert. Het fundamentele probleem: deze modellen leren correlaties, geen behoudswetten. Vinay Sharma en Olga Fink nemen een andere benadering met Dynami-CAL GraphNet. In plaats van te hopen dat het netwerk fysica ontdekt, embedden ze het direct in de architectuur. De sleutelinzichten: de derde wet van Newton garandeert dat interne krachten lineaire en hoekmomentum behouden—zelfs wanneer energie verliest door wrijving of inelastische botsingen. Ze bereiken dit door een nieuw rand-lokaal referentiekader dat SO(3)-equivariant, translatie-invariant en antisymmetrisch is onder knooppuntwisseling. Krachten die zijn gedecodeerd uit rand-embeddings zijn automatisch gelijk en tegengesteld. Hoekmomentum krijgt dezelfde behandeling: het netwerk voorspelt zowel interne momenten als het punt van krachttoepassing, waarbij spin van orbitaal bijdragen wordt geïsoleerd. De resultaten zijn opvallend. Getraind op slechts vijf trajecten van 60 botsende sferen in een stilstaande doos, extrapoleert het model naar een roterende cilindrische hopper met 2.073 deeltjes—met behoud van stabiele, fysiek consistente uitroltijden over 16.000 tijdstappen. Op beperkte N-body systemen, menselijke bewegingsregistratie en eiwit moleculaire dynamica, presteert het beter dan gespecialiseerde baselines terwijl het minder data vereist. De boodschap: wanneer je behoudswetten in de architectuur bakt in plaats van in de verliesfunctie, krijg je modellen die generaliseren over schalen, geometrieën en randvoorwaarden—omdat ze vanaf het begin de juiste inductieve bias hebben geleerd. Paper: