Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Professor i fysikk @UAM_Madrid | Professor. PI for AI for Materials Lab | Direktør for AI for Materials Lab.
Å bøye rommet for å matche energi: hvordan geometri får molekylstrukturprediksjon til kjemisk nøyaktighet
Å forutsi den tredimensjonale strukturen til et molekyl – nøyaktig hvor hvert atom befinner seg i rommet – er grunnleggende for beregningskjemi. Gjør du litt feil, kan energiberegningene dine være mye feil. Gullstandarden er tetthetsfunksjonalteori, men DFT er tregt og dyrt. Maskinlæring tilbyr en raskere løsning: tren en modell til å støydempe et grovt innledende gjetning til en nøyaktig struktur.
Problemet er at de fleste denotiserende modeller opererer i vanlig euklidsk rom, hvor alle retninger behandles likt. Men molekyler fungerer ikke slik. Å strekke en binding koster langt mer energi enn å rotere rundt den. Like avstander i kartesiske koordinater betyr ikke like energiendringer.
Jeheon Woo og medforfatterne tar opp denne uoverensstemmelsen direkte. De konstruerer en Riemannsk mangfoldighet—et krummet rom med en posisjonsavhengig metrikk—designet slik at geodetisk avstand korrelerer med energiforskjell. Metrikken er bygget opp fra fysikkbaserte interne koordinater som veier interatomære avstander etter hvor mye energi det koster å endre dem: stive bindinger teller mer enn myke torsjoner. Når de sammenligner geodetisk avstand med standard RMSD, hopper korrelasjonen med energi fra 0,37 til 0,90.
Å trene en støydempingsmodell på dette buede området endrer hva modellen lærer. I euklidsk rom kan tilsetning av isotrop støy bryte bindinger eller skape umulige geometrier—strukturer hundrevis av kcal/mol over minimum. På den Riemannske mangfoldigheten holder samme støystyrke molekylene kjemisk følbare, og holder seg innenfor samme potensialbrønn. Selve denoiseringsbanen følger geodeter som sporer energiminimering, ikke vilkårlige rette linjer gjennom kartesisk rom.
Resultatene treffer terskelen som betyr noe: kjemisk nøyaktighet, definert som energifeil under 1 kcal/mol. På QM9-benchmarken oppnår den Riemannske modellen en medianfeil på 0,177 kcal/mol – omtrent 20 × bedre enn kraftfeltets startstrukturer og betydelig bedre enn den euklidske versjonen. Når disse prediksjonene brukes som utgangspunkt for DFT-forbedring, faller beregningskostnadene med mer enn halvparten.
Det dypere poenget: i molekylær modellering er ikke geometrien til representasjonsrommet nøytral. Euklidsk rom behandler alle atomforskyvninger som ekvivalente; Riemannsk rom kan kode fysikken. Når du justerer geometrisk avstand med energikostnad, blir denoising optimalisering, og modellen lærer å følge potensialenergiflaten i stedet for å kjempe mot den.
Artikkel:

26
Låser opp enkeltcellebaserte grunnlagsmodeller med 96 % færre parametere
Enkeltcelle store språkmodeller (scLLM-er) har lært bemerkelsesverdig biologisk kunnskap fra millioner av celler. Men de har en kritisk svakhet: ta dem ut av treningskonteksten – en ny sykdom, en usett art, en ukarakterisert cellepopulasjon – og deres forutsigelser blir upålitelige.
Standardløsningen er finjustering. Men finjustering overskriver de opprinnelige modellparametrene, noe som fører til «katastrofal glemsel» av forhåndslært biologisk kunnskap. Og det er beregningsmessig krevende, og krever betydelige GPU-ressurser som mange forskere rett og slett ikke har.
Fei He og medforfattere foreslår scPEFT—et parameter-effektivt finjusteringsrammeverk som fryser den opprinnelige scLLM-ryggraden og kun trener små, lavdimensjonale adaptere. Fire adaptertyper (Token-adapter, Prefix-adapter, LoRA, Encoder-adapter) plasseres i ulike deler av modellarkitekturen, og lærer oppgavespesifikke justeringer uten å berøre de forhåndstrente vektene.
Effektivitetsgevinstene er slående: scPEFT reduserer treningsbare parametere med over 96 % og reduserer GPU-minnebruket med mer enn halvparten. Men her er det som betyr noe—det fungerer faktisk bedre enn full finjustering. På sykdomsspesifikke datasett (NSCLC, MS, COVID-19) oppnår scPEFT 39,7–81,7 % nøyaktighetsforbedringer sammenlignet med native modeller og 4,3–15 % gevinst sammenlignet med finjusterte versjoner, nettopp fordi det bevarer snarere enn overskriver forhåndstrent kunnskap.
Rammeverket muliggjør også overføring på tvers av arter fra mennesketrente modeller: 14 % forbedring på musenevroner, 39 % på makak-kimceller og 144 % på C. elegans—alle ved bruk av ortologe genkartlegginger. Oppmerksomhetsanalyse identifiserer COVID-relaterte gener i spesifikke T-celletilstander og avdekker biologisk relevante underpopulasjoner som er usynlige for finjusterte modeller.
Den bredere implikasjonen: ettersom grunnlagsmodeller sprer seg i biologien, trenger vi effektive måter å tilpasse dem på uten å ødelegge det de har lært. scPEFT viser at noen ganger betyr mindre oppdatering å lære mer.
Artikkel:

44
Nevrovitenskapsinspirerte arkitekturer for å bygge virkelig adaptiv AI
Moderne AI-systemer er kraftige, men skjøre. Tren en modell, ta den i bruk, og se ytelsen forverres etter hvert som verden endrer seg. Trener på nytt på nye data, og modellen glemmer det den visste. Denne syklusen produserer systemer som utmerker seg på statiske benchmarks, men som sliter med kontinuerlig tilpasning – noe biologisk intelligens håndterer uten anstrengelse.
En mus kan få skudd lære å finne vann i en ny labyrint på omtrent ti forsøk, en læringsrate som er tusen ganger raskere enn tradisjonelle laboratorieoppgaver. Likevel opplever våre mest sofistikerte nevrale nettverk katastrofal glemsel når de blir bedt om å lære sekvensielt.
Hjernen tilbyr en annen arkitektur. Den fungerer ikke som et enkelt sammenfiltret nettverk, men som smart sammenkoblede spesialiserte moduler—prosesseringskanter for visuell cortex, motorisk cortex-beregning i kraftrommet, prefrontale områder som sporer oppgavestrukturert minne. Hver modul bygger interne modeller som oppdateres gjennom prediksjonsfeil når forventede utfall avviker fra virkeligheten. Disse signerte undervisningssignalene er nå oppdaget på sensoriske, motoriske og belønningskretser.
Mackenzie Weygandt Mathis syntetiserer disse innsiktene til et forslag om adaptiv agentisk AI. I stedet for å forfølge stadig større monolittiske grunnlagsmodeller, argumenterer hun for systemer av domenespesifikke kodere hvis output er felles optimalisert i et delt latent rom. Hver koder overvåkes av prediksjonsfeilsignaler—robuste kodere forblir «låst» mens de som viser dårlig ytelse blir «låst opp» for kontinuerlig læring ved bruk av minnereplay eller synaptisk intelligens, uten å ta hele systemet offline.
Det bredere prinsippet: ved å strukturere KI rundt nevrovitenskapsinspirert modularitet og feilbasert prediksjonsoppdatering i stedet for monolittisk skala, blir det mulig å bevege seg utover statiske modeller mot genuint adaptiv intelligens—systemer som kontinuerlig forbedrer sine modeller av verden gjennom interaksjon med den.
Artikkel:

69
Topp
Rangering
Favoritter
