Um GNN informado pela física que aprende as leis de Newton a partir de dados — e extrapola para sistemas 35× maiores A maioria das redes neurais para simulação física é ávida por muitos dados e frágil. Treine-os em uma única configuração, e eles se desfazem quando você muda as condições de contorno, escala o sistema ou executa longos rollouts. A questão fundamental: esses modelos aprendem correlações, não leis de conservação. Vinay Sharma e Olga Fink adotam uma abordagem diferente com a Dynami-CAL GraphNet. Em vez de esperar que a rede descubra física, eles a incorporam diretamente na arquitetura. A principal ideia: a terceira lei de Newton garante que as forças internas conservam o momento linear e angular — mesmo quando a energia se dissipa por atrito ou colisões inelásticas. Eles alcançam isso por meio de um novo referencial local de arestas que é SO(3)-equivariante, invariante por translação e antissimétrico sob intercâmbio de nós. Forças decodificadas a partir de embeddings de aresta são automaticamente iguais e opostas. O momento angular recebe o mesmo tratamento: a rede prevê tanto torques internos quanto o ponto de aplicação da força, isolando o spin das contribuições orbitais. Os resultados são impressionantes. Treinado em apenas cinco trajetórias de 60 esferas colidindo em uma caixa estacionária, o modelo extrapola para um funil cilíndrico rotativo com 2.073 partículas — mantendo rolamentos estáveis e fisicamente consistentes ao longo de 16.000 passos de tempo. Em sistemas N-corpos restritos, captura de movimento humana e dinâmica molecular de proteínas, ele supera linhas de base especializadas enquanto exige menos dados. A mensagem: quando você incorpora leis de conservação na arquitetura em vez da função de perda, obtém modelos que generalizam em escalas, geometrias e condições de contorno — porque aprenderam o viés indutivo correto desde o início. Papel: