Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. de Physique @UAM_Madrid | Professeur. PI du Laboratoire d’IA pour les matériaux | Directeur du laboratoire IA pour les matériaux.
Plier l'espace pour correspondre à l'énergie : comment la géométrie permet de prédire la structure moléculaire avec précision chimique
Prédire la structure 3D d'une molécule—où chaque atome se situe exactement dans l'espace—est fondamental en chimie computationnelle. Si vous vous trompez un peu, vos calculs d'énergie peuvent être très erronés. La norme d'or est la théorie de la fonctionnelle de densité, mais la DFT est lente et coûteuse. L'apprentissage automatique offre une voie plus rapide : entraîner un modèle pour débruiter une estimation initiale approximative en une structure précise.
Le problème est que la plupart des modèles de débruitage fonctionnent dans un espace euclidien ordinaire, où toutes les directions sont traitées de manière égale. Mais les molécules ne fonctionnent pas de cette manière. Étendre une liaison coûte beaucoup plus d'énergie que de tourner autour. Des distances égales dans des coordonnées cartésiennes ne signifient pas des changements d'énergie égaux.
Jeheon Woo et ses co-auteurs abordent directement ce décalage. Ils construisent une variété riemannienne—un espace courbé avec une métrique dépendant de la position—conçue de manière à ce que la distance géodésique corrèle avec la différence d'énergie. La métrique est construite à partir de coordonnées internes informées par la physique qui pondèrent les distances interatomiques en fonction de l'énergie nécessaire pour les modifier : les liaisons rigides comptent plus que les torsions souples. Lorsqu'ils comparent la distance géodésique avec la RMSD standard, la corrélation avec l'énergie passe de 0,37 à 0,90.
En entraînant un modèle de débruitage dans cet espace courbé, ce que le modèle apprend change. Dans l'espace euclidien, ajouter du bruit isotrope peut casser des liaisons ou créer des géométries impossibles—des structures des centaines de kcal/mol au-dessus du minimum. Sur la variété riemannienne, la même magnitude de bruit garde les molécules chimiquement sensées, restant dans le même puits potentiel. Le chemin de débruitage lui-même suit des géodésiques qui suivent la minimisation de l'énergie, et non des lignes droites arbitraires à travers l'espace cartésien.
Les résultats atteignent le seuil qui compte : la précision chimique, définie comme une erreur d'énergie inférieure à 1 kcal/mol. Sur le benchmark QM9, le modèle riemannien atteint une erreur médiane de 0,177 kcal/mol—environ 20 fois mieux que les structures de départ du champ de force et significativement mieux que la version euclidienne. Lorsque ces prédictions sont utilisées comme points de départ pour le raffinement DFT, le coût computationnel diminue de plus de la moitié.
Le point plus profond : dans la modélisation moléculaire, la géométrie de l'espace de représentation n'est pas neutre. L'espace euclidien traite tous les déplacements atomiques comme équivalents ; l'espace riemannien peut encoder la physique. Lorsque vous alignez la distance géométrique avec le coût énergétique, le débruitage devient optimisation, et le modèle apprend à suivre la surface d'énergie potentielle plutôt qu'à la combattre.
Article :

8
Déverrouiller les modèles de fondation à cellule unique avec 96 % de paramètres en moins
Les modèles de langage à grande échelle pour cellules uniques (scLLMs) ont appris des connaissances biologiques remarquables à partir de millions de cellules. Mais ils ont une faiblesse critique : sortez-les de leur contexte d'entraînement—une nouvelle maladie, une espèce non vue, une population cellulaire non caractérisée—et leurs prédictions deviennent peu fiables.
La solution standard est le fine-tuning. Mais le fine-tuning écrase les paramètres originaux du modèle, provoquant un "oubli catastrophique" des connaissances biologiques pré-apprises. Et c'est coûteux en calcul, nécessitant des ressources GPU substantielles que de nombreux chercheurs n'ont tout simplement pas.
Fei He et ses co-auteurs proposent scPEFT—un cadre de fine-tuning efficace en paramètres qui fige l'architecture de base du scLLM original et entraîne uniquement de petits adaptateurs à faible dimension. Quatre types d'adaptateurs (adaptateur de jeton, adaptateur de préfixe, LoRA, adaptateur d'encodeur) s'insèrent dans différentes parties de l'architecture du modèle, apprenant des ajustements spécifiques à la tâche sans toucher aux poids pré-entraînés.
Les gains d'efficacité sont frappants : scPEFT réduit les paramètres entraînables de plus de 96 % et réduit l'utilisation de la mémoire GPU de plus de la moitié. Mais voici ce qui compte : il performe en réalité mieux que le fine-tuning complet. Sur des ensembles de données spécifiques aux maladies (NSCLC, MS, COVID-19), scPEFT atteint des améliorations de précision de 39,7 à 81,7 % par rapport aux modèles natifs et de 4,3 à 15 % par rapport aux versions fine-tunées, précisément parce qu'il préserve plutôt qu'il n'écrase les connaissances pré-entraînées.
Le cadre permet également le transfert inter-espèces à partir de modèles entraînés sur l'homme : 14 % d'amélioration sur les neurones de souris, 39 % sur les cellules germinales de macaque, et 144 % sur C. elegans—tout cela en utilisant des mappages de gènes orthologues. L'analyse d'attention identifie des gènes liés au COVID dans des états spécifiques des cellules T et découvre des sous-populations biologiquement pertinentes invisibles aux modèles fine-tunés.
L'implication plus large : alors que les modèles de fondation prolifèrent dans la biologie, nous avons besoin de moyens efficaces pour les adapter sans détruire ce qu'ils ont appris. scPEFT montre que parfois, mettre à jour moins signifie apprendre plus.
Article :

23
Architectures inspirées par les neurosciences pour construire une IA véritablement adaptative
Les systèmes d'IA modernes sont puissants mais fragiles. Entraînez un modèle, déployez-le, et regardez la performance se dégrader à mesure que le monde évolue. Réentraîner sur de nouvelles données, et le modèle oublie ce qu'il savait. Ce cycle produit des systèmes qui excellent dans des benchmarks statiques mais peinent à s'adapter en continu—quelque chose que l'intelligence biologique gère sans effort.
Une souris peut apprendre en quelques essais à trouver de l'eau dans un labyrinthe nouveau en environ dix tentatives, un taux d'apprentissage 1 000 fois plus rapide que les tâches de laboratoire traditionnelles. Pourtant, nos réseaux neuronaux les plus sophistiqués souffrent d'un oubli catastrophique lorsqu'on leur demande d'apprendre de manière séquentielle.
Le cerveau offre une architecture différente. Il ne fonctionne pas comme un seul réseau enchevêtré mais comme des modules spécialisés intelligemment interconnectés—le cortex visuel traitant les contours, le cortex moteur calculant dans l'espace de force, les régions préfrontales suivant la mémoire structurée par les tâches. Chaque module construit des modèles internes mis à jour par des erreurs de prédiction lorsque les résultats attendus divergent de la réalité. Ces signaux d'enseignement signés ont maintenant été découverts à travers les circuits sensoriels, moteurs et de récompense.
Mackenzie Weygandt Mathis synthétise ces idées dans une proposition pour une IA agentique adaptative. Plutôt que de poursuivre des modèles de fondation monolithiques toujours plus grands, elle plaide pour des systèmes d'encodeurs spécifiques à un domaine dont les sorties sont optimisées conjointement dans un espace latent partagé. Chaque encodeur est surveillé par des signaux d'erreur de prédiction—les encodeurs robustes restent "verrouillés" tandis que ceux montrant une performance dégradée sont "déverrouillés" pour un apprentissage continu utilisant la répétition de mémoire ou l'intelligence synaptique, sans mettre l'ensemble du système hors ligne.
Le principe plus large : en structurant l'IA autour de la modularité inspirée par les neurosciences et de la mise à jour basée sur les erreurs de prédiction plutôt que sur une échelle monolithique, il devient possible de dépasser les modèles statiques vers une intelligence véritablement adaptative—des systèmes qui affinent continuellement leurs modèles du monde à travers l'interaction avec celui-ci.
Article :

51
Meilleurs
Classement
Favoris
