GNN z informacjami fizycznymi, który uczy się praw Newtona z danych — i ekstrapoluje do systemów 35× większych Większość sieci neuronowych do symulacji fizyki jest głodna danych i krucha. Trenuj je na jednej konfiguracji, a rozpadną się, gdy zmienisz warunki brzegowe, zwiększysz skalę systemu lub przeprowadzisz długie symulacje. Fundamentalny problem: te modele uczą się korelacji, a nie praw zachowania. Vinay Sharma i Olga Fink podchodzą do tego inaczej z Dynami-CAL GraphNet. Zamiast liczyć na to, że sieć odkryje fizykę, wbudowują ją bezpośrednio w architekturę. Kluczowy wniosek: trzecia zasada Newtona gwarantuje, że siły wewnętrzne zachowują pęd liniowy i kątowy — nawet gdy energia rozprasza się przez tarcie lub zderzenia nieelastyczne. Osiągają to dzięki nowatorskiej ramie odniesienia lokalnej krawędzi, która jest SO(3)-wariantna, niezmienna w translacji i antysymetryczna względem zamiany węzłów. Siły dekodowane z osadzeń krawędzi są automatycznie równe i przeciwne. Pęd kątowy otrzymuje to samo traktowanie: sieć przewiduje zarówno wewnętrzne momenty, jak i punkt zastosowania siły, izolując spin od wkładów orbitalnych. Wyniki są uderzające. Wytrenowana na zaledwie pięciu trajektoriach 60 zderzających się kul w stacjonarnym pudełku, model ekstrapoluje do obracającego się cylindrycznego leja z 2,073 cząstkami — utrzymując stabilne, fizycznie spójne symulacje przez 16,000 kroków czasowych. W ograniczonych systemach N-ciał, przechwytywaniu ruchu ludzkiego i dynamice molekularnej białek, przewyższa wyspecjalizowane podstawy, wymagając mniej danych. Przesłanie: gdy wbudowujesz prawa zachowania w architekturę, a nie w funkcję straty, otrzymujesz modele, które generalizują w różnych skalach, geometriach i warunkach brzegowych — ponieważ od początku nauczyły się właściwego indukcyjnego biasu. Artykuł: