Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En fysikkinformert GNN som lærer Newtons lover fra data—og ekstrapolerer til systemer 35 × større
De fleste nevrale nettverk for fysikksimulering er datakrevende og sprø. Tren dem på én konfigurasjon, og de faller fra hverandre når du endrer grensebetingelsene, skalerer opp systemet eller kjører lange utrullinger. Det grunnleggende problemet: disse modellene lærer korrelasjoner, ikke bevaringslover.
Vinay Sharma og Olga Fink tar en annen tilnærming med Dynami-CAL GraphNet. I stedet for å håpe at nettverket oppdager fysikk, integrerer de det direkte i arkitekturen. Den viktigste innsikten: Newtons tredje lov garanterer at indre krefter bevarer lineært og vinkelmoment—selv når energien forsvinner gjennom friksjon eller inelastiske kollisjoner.
De oppnår dette gjennom en ny kant-lokal referanseramme som er SO(3)-ekvivariant, translasjonsinvariant og antisymmetrisk under nodeutveksling. Krefter som dekodes fra kantinnlegginger er automatisk like og motsatte. Vinkelmoment får samme behandling: nettverket forutsier både interne dreiemoment og kraftpunktet, og isolerer spinn fra banebidrag.
Resultatene er slående. Modellen er trent på bare fem baner med 60 kolliderende kuler i en stasjonær boks, og ekstrapolerer til en roterende sylindrisk beholder med 2 073 partikler—og opprettholder stabile, fysisk konsistente utrullinger over 16 000 tidstrinn. På begrensede N-legemesystemer, menneskelig bevegelsesfangst og proteinmolekylær dynamikk, overgår den spesialiserte baselines samtidig som den krever mindre data.
Budskapet: når du baker bevaringslover inn i arkitekturen i stedet for tapsfunksjonen, får du modeller som generaliserer over skalaer, geometrier og randbetingelser – fordi de har lært riktig induktiv bias fra starten av.
Artikkel:

Topp
Rangering
Favoritter
