Neurovetenskapsinspirerade arkitekturer för att bygga verkligt adaptiv AI Moderna AI-system är kraftfulla men sköra. Träna en modell, implementera den och se prestandan försämras när världen förändras. Träna om på ny data, och modellen glömmer vad den visste. Denna cykel producerar system som utmärker sig på statiska riktmärken men har svårt med kontinuerlig anpassning—något biologisk intelligens hanterar utan ansträngning. En mus kan lära sig att hitta vatten i en ny labyrint på ungefär tio försök, en inlärningstakt som är tusen gånger snabbare än traditionella laboratorieuppgifter. Ändå drabbas våra mest sofistikerade neurala nätverk av katastrofal glömska när de ombeds lära sig sekventiellt. Hjärnan erbjuder en annan arkitektur. Det fungerar inte som ett enda intrasslat nätverk utan som smart sammankopplade specialiserade moduler—kanter för bearbetning av visuella cortex, motorisk cortex-beräkning i kraftutrymme, prefrontala regioner som spårar uppgiftsstrukturerat minne. Varje modul bygger interna modeller som uppdateras genom prediktionsfel när förväntade utfall avviker från verkligheten. Dessa tecknade undervisningssignaler har nu upptäckts över sensoriska, motoriska och belöningskretsar. Mackenzie Weygandt Mathis syntetiserar dessa insikter till ett förslag för adaptiv agentisk AI. Istället för att eftersträva allt större monolitiska grundmodeller argumenterar hon för system av domänspecifika kodare vars utdata gemensamt optimeras i ett delat latent rum. Varje kodare övervakas av prediktionsfelsignaler – robusta kodare förblir "låsta" medan de som visar försämrad prestanda "låses upp" för kontinuerlig inlärning med minnesrepris eller synaptisk intelligens, utan att hela systemet tas offline. Den bredare principen: genom att strukturera AI kring neurovetenskapsinspirerad modularitet och felbaserad uppdatering snarare än monolitisk skala, blir det möjligt att gå bortom statiska modeller mot genuint adaptiv intelligens – system som kontinuerligt förfinar sina modeller av världen genom interaktion med den. Papper: