Un GNN informato dalla fisica che apprende le leggi di Newton dai dati—ed estrae a sistemi 35× più grandi La maggior parte delle reti neurali per la simulazione fisica sono affamate di dati e fragili. Allenale su una configurazione e si disintegrano quando cambi le condizioni al contorno, aumenti la scala del sistema o esegui lunghe simulazioni. Il problema fondamentale: questi modelli apprendono correlazioni, non leggi di conservazione. Vinay Sharma e Olga Fink adottano un approccio diverso con Dynami-CAL GraphNet. Invece di sperare che la rete scopra la fisica, la incorporano direttamente nell'architettura. L'intuizione chiave: la terza legge di Newton garantisce che le forze interne conservino il momento lineare e angolare—anche quando l'energia si dissipa attraverso l'attrito o collisioni inelastiche. Raggiungono questo attraverso un nuovo sistema di riferimento locale ai bordi che è SO(3)-equivariant, invariante rispetto alla traduzione e antisimmmetrico sotto l'intercambio dei nodi. Le forze decodificate dagli embedding dei bordi sono automaticamente uguali e opposte. Il momento angolare riceve lo stesso trattamento: la rete predice sia le coppie interne che il punto di applicazione della forza, isolando la rotazione dai contributi orbitali. I risultati sono sorprendenti. Allenato su solo cinque traiettorie di 60 sfere in collisione in una scatola stazionaria, il modello estrae a un tramoggia cilindrica rotante con 2.073 particelle—mantenendo simulazioni stabili e fisicamente coerenti per oltre 16.000 passi temporali. Su sistemi N-body vincolati, cattura del movimento umano e dinamica molecolare delle proteine, supera le basi specializzate richiedendo meno dati. Il messaggio: quando incorpori le leggi di conservazione nell'architettura piuttosto che nella funzione di perdita, ottieni modelli che si generalizzano attraverso scale, geometrie e condizioni al contorno—perché hanno appreso il giusto bias induttivo fin dall'inizio. Carta: