Un GNN informat de fizică care învață legile lui Newton din date — și extrapolează la sisteme cu 35× mai mari Majoritatea rețelelor neuronale pentru simularea fizicii sunt consumatoare de date și fragile. Antrenează-i pe o singură configurație și se destramă când schimbi condițiile de frontieră, mărești sistemul sau rulezi rollout-uri lungi. Problema fundamentală: aceste modele învață corelații, nu legile de conservare. Vinay Sharma și Olga Fink abordează diferit Dynami-CAL GraphNet. În loc să spere că rețeaua descoperă fizica, o integrează direct în arhitectură. Ideea cheie: a treia lege a lui Newton garantează că forțele interne conservă momentul liniar și unghiular — chiar și atunci când energia se disipează prin frecare sau coliziuni inelastice. Ei realizează acest lucru printr-un nou sistem de referință local la muchie, care este SO(3)-echivariant, invariant la translație și antisimetric sub schimb de noduri. Forțele decodate din încorporarea muchii sunt automat egale și opuse. Momentul unghiular primește același tratament: rețeaua prezice atât cuplurile interne, cât și punctul de aplicare a forței, izolând spinul de contribuțiile orbitale. Rezultatele sunt remarcabile. Antrenat pe doar cinci traiectorii a 60 de sfere care se ciocnesc într-o cutie staționară, modelul extrapolează la un hopper cilindric rotativ cu 2.073 de particule — menținând rulări stabile și fizic constante pe parcursul a 16.000 de pași de timp. Pe sistemele N-body constrânse, capturarea mișcării umane și dinamica moleculară a proteinelor, depășește liniile de bază specializate, necesitând mai puține date. Mesajul: când integrezi legile de conservare în arhitectură, în loc de funcția de pierdere, obții modele care generalizează pe scări, geometrii și condiții de frontieră — pentru că au învățat de la început biasul inductiv corect. Hârtie: