Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Fysiikan professori @UAM_Madrid | Professori. AI for Materials -laboratorion johtaja | AI for Materials Labin johtaja.
Avaruuden taivuttaminen energian vastaamiseksi: miten geometria saa molekyylirakenteen ennusteen kemialliseen tarkkuuteen
Molekyylin kolmiulotteisen rakenteen ennustaminen—missä kukin atomi tarkalleen sijaitsee avaruudessa—on laskennallisen kemian perusta. Jos menee hieman pieleen, energialaskelmat voivat olla paljon pielessä. Kultainen standardi on tiheysfunktionaalinen teoria, mutta DFT on hidas ja kallis. Koneoppiminen tarjoaa nopeamman reitin: kouluta malli poistamaan karkea alkuperäinen arvaus tarkaksi rakenteeksi.
Ongelma on, että useimmat kohinanpoistomallit toimivat tavallisessa euklidisessa tilassa, jossa kaikkia suuntia käsitellään tasapuolisesti. Mutta molekyylit eivät toimi niin. Sidoksen venyttäminen maksaa paljon enemmän energiaa kuin sen ympärillä pyöriminen. Yhtä suuret etäisyydet karteesisissa koordinaateissa eivät tarkoita yhtä suuria energian muutoksia.
Jeheon Woo ja hänen kanssakirjoittajansa käsittelevät tätä ristiriitaa suoraan. He rakentavat Riemannin moniston—kaarevan avaruuden, jossa on sijaintiriippuvainen metriikka—joka on suunniteltu siten, että geodeettinen etäisyys korreloi energiaeron kanssa. Metriikka perustuu fysiikkaan perustuviin sisäisiin koordinaatteihin, jotka painottavat atomien välisiä etäisyyksiä sen mukaan, kuinka paljon energiaa niiden muuttaminen maksaa: jäykät sidokset merkitsevät enemmän kuin pehmeät vääntöalueet. Kun he vertaavat geodeettista etäisyyttä tavalliseen RMSD:hen, korrelaatio energian kanssa hyppää 0,37:stä 0,90:een.
Kohinanpoistomallin kouluttaminen tällä kaarevalla tilalla muuttaa sitä, mitä malli oppii. Euklidisessa avaruudessa isotrooppinen kohina voi rikkoa sidoksia tai luoda mahdottomia geometrioita—rakenteita, jotka ovat satoja kcal/mol minimiarvoja korkeampaa. Riemannin monistossa sama kohinan voimakkuus pitää molekyylit kemiallisesti herkkinä, pysyen samassa potentiaalikuopassa. Kohinan poistoreitti itsessään noudattaa geodeettisia, jotka seuraavat energian minimointia, eivät mielivaltaisia suoria viivoja karteesisessa tilassa.
Tulokset saavuttivat tärkeän kynnyksen: kemiallisen tarkkuuden, joka määritellään energiavirheeksi alle 1 kcal/mol. QM9-vertailussa Riemannin malli saavuttaa mediaanivirheen 0,177 kcal/mol – noin 20× parempi kuin voimakentän aloitusrakenteet ja merkittävästi parempi kuin euklidinen versio. Kun näitä ennusteita käytetään lähtökohtina DFT:n tarkentamiselle, laskennallinen kustannus putoaa yli puoleen.
Syvempi pointti: molekyylimallinnuksessa esitystilan geometria ei ole neutraali. Euklidinen avaruus käsittelee kaikkia atomien siirtymää ekvivalentteina; Riemannin avaruus voi koodata fysiikan. Kun geometrinen etäisyys sovitetaan energiakustannusten kanssa, kohinanpoisto muuttuu optimoinniksi, ja malli oppii seuraamaan potentiaalienergian pintaa sen sijaan, että taistelisi sitä vastaan.
Artikkeli:

16
Yksisoluisten perustusmallien avaaminen 96 % vähemmän parametreilla
Yksisoluiset suuret kielimallit (scLLM:t) ovat oppineet merkittävää biologista tietoa miljoonilta soluilta. Mutta heillä on kriittinen heikkous: jos heidät otetaan pois koulutuskontekstistaan—uusi tauti, näkymätön laji, määrittelemätön solupopulaatio—heidän ennusteensa muuttuvat epäluotettaviksi.
Vakioratkaisu on hienosäätö. Mutta hienosäätö korvaa alkuperäiset mallin parametrit, mikä aiheuttaa "katastrofaalista unohtamista" ennalta opitusta biologisesta tiedosta. Ja se on laskennallisesti kallista, vaatii merkittäviä GPU-resursseja, joita monilla tutkijoilla ei yksinkertaisesti ole.
Fei He ja hänen kanssakirjoittajansa ehdottavat scPEFT:tä – parametritehokasta hienosäätökehystä, joka jäädyttää alkuperäisen scLLM-selkärangan ja kouluttaa vain pieniä, matalan ulottuvuuden adaptereita. Neljä sovitintyyppiä (Token adapter, Prefix adapter, LoRA, Encoder adapter) sijoittuu malliarkkitehtuurin eri osiin, oppien tehtäväkohtaisia säätöjä koskematta esikoulutettuihin painoihin.
Tehokkuuden parannukset ovat silmiinpistäviä: scPEFT vähentää koulutettavia parametreja yli 96 % ja vähentää GPU:n muistin käyttöä yli puoleen. Mutta tässä on tärkeintä – se toimii itse asiassa paremmin kuin täysi hienosäätö. Tautikohtaisissa tietoaineistoissa (NSCLC, MS, COVID-19) scPEFT parantaa 39,7–81,7 % tarkkuutta natiivimalleihin verrattuna ja 4,3–15 % parannuksia hienosäädetyihin versioihin verrattuna, juuri siksi, että se säilyttää eikä ylikirjoita esikoulutettua tietoa.
Viitekehys mahdollistaa myös lajien välisen siirron ihmiskoulutetuista malleista: 14 % parannus hiiren neuroneissa, 39 % makakin sukusoluissa ja 144 % C. elegansissa – kaikki ortologisilla geenikartoituksilla. Tarkkaavaisuusanalyysi tunnistaa COVID-aiheiset geenit tietyissä T-solutiloissa ja paljastaa biologisesti merkityksellisiä alapopulaatioita, joita hienosäädetyt mallit eivät näe.
Laajempi merkitys: kun perustusmallit lisääntyvät biologiassa, tarvitsemme tehokkaita tapoja mukauttaa niitä tuhoamatta oppimaansa. scPEFT osoittaa, että joskus vähemmän päivittäminen tarkoittaa enemmän oppimista.
Artikkeli:

33
Neurotieteestä inspiroituneet arkkitehtuurit aidosti adaptiivisen tekoälyn rakentamiseen
Nykyaikaiset tekoälyjärjestelmät ovat tehokkaita mutta hauraita. Kouluta malli, ota se käyttöön ja katso suorituskyvyn heikkenemistä maailman muuttuessa. Uudelleenkouluttaminen uusien tietojen pohjalta, ja malli unohtaa, mitä se tiesi. Tämä sykli tuottaa järjestelmiä, jotka menestyvät staattisissa vertailuarvoissa, mutta kamppailevat jatkuvan sopeutumisen kanssa—asia, jonka biologinen älykkyys hoitaa vaivattomasti.
Hiiri voi muutamalla kerralla oppia löytämään vettä uudesta labyrintistä noin kymmenessä yrityksessä, mikä on 1 000 kertaa nopeampi kuin perinteiset laboratoriotehtävät. Silti kehittyneimmät neuroverkkomme kärsivät katastrofaalisesta unohtamisesta, kun niitä pyydetään oppimaan peräkkäin.
Aivot tarjoavat erilaisen arkkitehtuurin. Se ei toimi yhtenä sotkuisena verkostona, vaan älykkäästi yhdistettyinä erikoistuneina moduuleina—visuaalisen aivokuoren käsittelyreunoina, motorisen aivokuoren laskenta voimatilassa, prefrontaalialueina, jotka seuraavat tehtävärakenteellista muistia. Jokainen moduuli rakentaa sisäisiä malleja, joita päivitetään ennustevirheiden avulla, kun odotetut lopputulokset poikkeavat todellisuudesta. Nämä allekirjoitetut opetussignaalit on nyt löydetty aisti-, motoris- ja palkitsemispiireissä.
Mackenzie Weygandt Mathis yhdistää nämä oivallukset ehdotukseksi adaptiiviseksi agenttiseksi tekoälyksi. Sen sijaan, että tavoiteltaisiin yhä suurempia monoliittisia perustusmalleja, hän puolustaa alakohtaisia kooderijärjestelmiä, joiden ulostulot optimoidaan yhdessä jaetussa latenttitilassa. Jokainen kooderi on valvottu virheennustesignaaleilla – kestävät kooderit pysyvät "lukittuina", kun taas heikentynyttä suorituskykyä osoittavat koodaajat "avataan" jatkuvaa oppimista varten muistin toistolla tai synaptisella älykkyydellä, ilman että koko järjestelmä poistuu käytöstä.
Laajempi periaate: rakentamalla tekoäly neurotieteen inspiroiman modulaarisuuden ja ennustevirhepohjaisen päivityksen ympärille monoliittisen mittakaavan sijaan, on mahdollista siirtyä staattisten mallien ulkopuolelle kohti aidosti adaptiivista älykkyyttä—järjestelmiä, jotka jatkuvasti hiovat mallejaan maailmasta vuorovaikutuksen kautta.
Artikkeli:

60
Johtavat
Rankkaus
Suosikit
