Uma GNN informada por física que aprende as leis de Newton a partir de dados—e extrapola para sistemas 35× maiores A maioria das redes neurais para simulação física é faminta por dados e frágil. Treine-as em uma configuração, e elas desmoronam quando você muda as condições de contorno, aumenta a escala do sistema ou realiza longas simulações. O problema fundamental: esses modelos aprendem correlações, não leis de conservação. Vinay Sharma e Olga Fink adotam uma abordagem diferente com o Dynami-CAL GraphNet. Em vez de esperar que a rede descubra a física, eles a incorporam diretamente na arquitetura. A chave: a terceira lei de Newton garante que as forças internas conservam o momento linear e angular—mesmo quando a energia se dissipa através do atrito ou colisões inelásticas. Eles alcançam isso através de um novo referencial local de arestas que é SO(3)-equivariante, invariante em relação à tradução e antissimétrico sob a troca de nós. As forças decodificadas a partir das incorporações de arestas são automaticamente iguais e opostas. O momento angular recebe o mesmo tratamento: a rede prevê tanto os torques internos quanto o ponto de aplicação da força, isolando a rotação das contribuições orbitais. Os resultados são impressionantes. Treinado em apenas cinco trajetórias de 60 esferas colidindo em uma caixa estacionária, o modelo extrapola para um funil cilíndrico rotativo com 2.073 partículas—mantendo simulações estáveis e fisicamente consistentes ao longo de 16.000 passos de tempo. Em sistemas N-corporal restritos, captura de movimento humano e dinâmica molecular de proteínas, ele supera linhas de base especializadas enquanto requer menos dados. A mensagem: quando você incorpora leis de conservação na arquitetura em vez da função de perda, obtém modelos que generalizam através de escalas, geometrias e condições de contorno—porque aprenderam o viés indutivo correto desde o início. Artigo: