Un GNN informado por la física que aprende las leyes de Newton a partir de los datos y extrapola a sistemas 35× mayores La mayoría de las redes neuronales para simulación física consumen datos y son frágiles. Entrenalos en una configuración y se deshacen cuando cambias las condiciones de contorno, escalas el sistema o haces despliegues largos. El problema fundamental: estos modelos aprenden correlaciones, no leyes de conservación. Vinay Sharma y Olga Fink adoptan un enfoque diferente con Dynami-CAL GraphNet. En lugar de esperar que la red descubra la física, la integran directamente en la arquitectura. La idea clave: la tercera ley de Newton garantiza que las fuerzas internas conservan el momento lineal y angular, incluso cuando la energía se disipa por fricción o colisiones inelásticas. Lo logran mediante un nuevo sistema de referencia local en aristas que es SO(3)-equivariante, invariante por traslación y antisimétrico bajo intercambio de nodos. Las fuerzas decodificadas a partir de incrustaciones de aristas son automáticamente iguales y opuestas. El momento angular recibe el mismo tratamiento: la red predice tanto los torques internos como el punto de aplicación de la fuerza, aislando el espín de las contribuciones orbitales. Los resultados son impactantes. Entrenado en solo cinco trayectorias de 60 esferas colisionantes en una caja fija, el modelo extrapola a una tolva cilíndrica giratoria con 2.073 partículas, manteniendo despliegues estables y físicamente consistentes a lo largo de 16.000 pasos de tiempo. En sistemas N-cuerpos restringidos, captura de movimiento humana y dinámica molecular de proteínas, supera a las líneas base especializadas requiriendo menos datos. El mensaje: cuando incorporas leyes de conservación en la arquitectura en lugar de la función de pérdida, obtienes modelos que generalizan a escalas, geometrías y condiciones de frontera, porque han aprendido el sesgo inductivo correcto desde el principio. Papel: