Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un GNN informato dalla fisica che apprende le leggi di Newton dai dati—ed estrae a sistemi 35× più grandi
La maggior parte delle reti neurali per la simulazione fisica sono affamate di dati e fragili. Allenale su una configurazione e si disintegrano quando cambi le condizioni al contorno, aumenti la scala del sistema o esegui lunghe simulazioni. Il problema fondamentale: questi modelli apprendono correlazioni, non leggi di conservazione.
Vinay Sharma e Olga Fink adottano un approccio diverso con Dynami-CAL GraphNet. Invece di sperare che la rete scopra la fisica, la incorporano direttamente nell'architettura. L'intuizione chiave: la terza legge di Newton garantisce che le forze interne conservino il momento lineare e angolare—anche quando l'energia si dissipa attraverso l'attrito o collisioni inelastiche.
Raggiungono questo attraverso un nuovo sistema di riferimento locale ai bordi che è SO(3)-equivariant, invariante rispetto alla traduzione e antisimmmetrico sotto l'intercambio dei nodi. Le forze decodificate dagli embedding dei bordi sono automaticamente uguali e opposte. Il momento angolare riceve lo stesso trattamento: la rete predice sia le coppie interne che il punto di applicazione della forza, isolando la rotazione dai contributi orbitali.
I risultati sono sorprendenti. Allenato su solo cinque traiettorie di 60 sfere in collisione in una scatola stazionaria, il modello estrae a un tramoggia cilindrica rotante con 2.073 particelle—mantenendo simulazioni stabili e fisicamente coerenti per oltre 16.000 passi temporali. Su sistemi N-body vincolati, cattura del movimento umano e dinamica molecolare delle proteine, supera le basi specializzate richiedendo meno dati.
Il messaggio: quando incorpori le leggi di conservazione nell'architettura piuttosto che nella funzione di perdita, ottieni modelli che si generalizzano attraverso scale, geometrie e condizioni al contorno—perché hanno appreso il giusto bias induttivo fin dall'inizio.
Carta:

Principali
Ranking
Preferiti
