Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Architectures inspirées par les neurosciences pour construire une IA véritablement adaptative
Les systèmes d'IA modernes sont puissants mais fragiles. Entraînez un modèle, déployez-le, et regardez la performance se dégrader à mesure que le monde évolue. Réentraîner sur de nouvelles données, et le modèle oublie ce qu'il savait. Ce cycle produit des systèmes qui excellent dans des benchmarks statiques mais peinent à s'adapter en continu—quelque chose que l'intelligence biologique gère sans effort.
Une souris peut apprendre en quelques essais à trouver de l'eau dans un labyrinthe nouveau en environ dix tentatives, un taux d'apprentissage 1 000 fois plus rapide que les tâches de laboratoire traditionnelles. Pourtant, nos réseaux neuronaux les plus sophistiqués souffrent d'un oubli catastrophique lorsqu'on leur demande d'apprendre de manière séquentielle.
Le cerveau offre une architecture différente. Il ne fonctionne pas comme un seul réseau enchevêtré mais comme des modules spécialisés intelligemment interconnectés—le cortex visuel traitant les contours, le cortex moteur calculant dans l'espace de force, les régions préfrontales suivant la mémoire structurée par les tâches. Chaque module construit des modèles internes mis à jour par des erreurs de prédiction lorsque les résultats attendus divergent de la réalité. Ces signaux d'enseignement signés ont maintenant été découverts à travers les circuits sensoriels, moteurs et de récompense.
Mackenzie Weygandt Mathis synthétise ces idées dans une proposition pour une IA agentique adaptative. Plutôt que de poursuivre des modèles de fondation monolithiques toujours plus grands, elle plaide pour des systèmes d'encodeurs spécifiques à un domaine dont les sorties sont optimisées conjointement dans un espace latent partagé. Chaque encodeur est surveillé par des signaux d'erreur de prédiction—les encodeurs robustes restent "verrouillés" tandis que ceux montrant une performance dégradée sont "déverrouillés" pour un apprentissage continu utilisant la répétition de mémoire ou l'intelligence synaptique, sans mettre l'ensemble du système hors ligne.
Le principe plus large : en structurant l'IA autour de la modularité inspirée par les neurosciences et de la mise à jour basée sur les erreurs de prédiction plutôt que sur une échelle monolithique, il devient possible de dépasser les modèles statiques vers une intelligence véritablement adaptative—des systèmes qui affinent continuellement leurs modèles du monde à travers l'interaction avec celui-ci.
Article :

Meilleurs
Classement
Favoris
