Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Neuro-wetenschappelijk geïnspireerde architecturen voor het bouwen van echt adaptieve AI
Moderne AI-systemen zijn krachtig maar kwetsbaar. Train een model, implementeer het, en kijk hoe de prestaties verslechteren naarmate de wereld verandert. Hertrainen op nieuwe gegevens, en het model vergeet wat het wist. Deze cyclus produceert systemen die uitblinken in statische benchmarks maar moeite hebben met continue aanpassing—iets wat biologische intelligentie moeiteloos afhandelt.
Een muis kan met een paar pogingen leren om water te vinden in een nieuw labyrint in ongeveer tien pogingen, een leersnelheid die 1.000 keer sneller is dan traditionele laboratoriumtaken. Toch lijden onze meest geavanceerde neurale netwerken aan catastrofaal vergeten wanneer ze sequentieel moeten leren.
De hersenen bieden een andere architectuur. Ze functioneren niet als een enkele verwarde netwerk maar als slim met elkaar verbonden gespecialiseerde modules—de visuele cortex verwerkt randen, de motorische cortex rekent in kracht ruimte, prefrontale gebieden volgen taak-gestructureerd geheugen. Elke module bouwt interne modellen die worden bijgewerkt via voorspellingsfouten wanneer verwachte uitkomsten afwijken van de werkelijkheid. Deze ondertekende onderwijssignalen zijn nu ontdekt in sensorische, motorische en beloningscircuits.
Mackenzie Weygandt Mathis synthetiseert deze inzichten in een voorstel voor adaptieve agentische AI. In plaats van steeds grotere monolithische fundamentmodellen na te streven, pleit ze voor systemen van domeinspecifieke encoders wiens outputs gezamenlijk zijn geoptimaliseerd in een gedeelde latente ruimte. Elke encoder wordt gemonitord door voorspellingsfoutsignalen—robuuste encoders blijven "vergrendeld" terwijl die met verslechterde prestaties "ontgrendeld" worden voor continue leren met behulp van geheugenherhaling of synaptische intelligentie, zonder het hele systeem offline te nemen.
Het bredere principe: door AI te structureren rond neuro-wetenschappelijk geïnspireerde modulariteit en voorspellingsfout-gebaseerde updates in plaats van monolithische schaal, wordt het mogelijk om verder te gaan dan statische modellen naar oprecht adaptieve intelligentie—systemen die continu hun modellen van de wereld verfijnen door interactie ermee.
Paper:

Boven
Positie
Favorieten
