Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. Hoogleraar Natuurkunde @UAM_Madrid | Professor. PI van het AI for Materials Lab | Directeur van het AI for Materials Lab.
Ruimte buigen om energie te matchen: hoe geometrie de voorspelling van moleculaire structuren naar chemische nauwkeurigheid brengt
Het voorspellen van de 3D-structuur van een molecuul—waar precies elk atoom zich in de ruimte bevindt—is fundamenteel voor de computationele chemie. Als je het een beetje verkeerd doet, kunnen je energiecalculaties flink afwijken. De gouden standaard is de dichtheidsfunctionaaltheorie, maar DFT is traag en duur. Machine learning biedt een snellere route: train een model om een ruwe initiële schatting om te zetten in een nauwkeurige structuur.
Het probleem is dat de meeste denoising-modellen opereren in gewone Euclidische ruimte, waar alle richtingen gelijk worden behandeld. Maar moleculen werken niet zo. Het rekken van een binding kost veel meer energie dan eromheen draaien. Gelijke afstanden in Cartesiaanse coördinaten betekenen niet dat de energieveranderingen gelijk zijn.
Jeheon Woo en co-auteurs pakken deze mismatch direct aan. Ze construeren een Riemanniaanse variëteit—een gebogen ruimte met een positie-afhankelijke metriek—ontworpen zodat de geodetische afstand correleert met het energieverschil. De metriek is opgebouwd uit fysica-geïnformeerde interne coördinaten die interatomische afstanden wegen op basis van hoeveel energie het kost om ze te veranderen: stijve bindingen tellen zwaarder dan zachte torsies. Wanneer ze de geodetische afstand vergelijken met de standaard RMSD, springt de correlatie met energie van 0,37 naar 0,90.
Het trainen van een denoising-model in deze gebogen ruimte verandert wat het model leert. In Euclidische ruimte kan het toevoegen van isotrope ruis bindingen breken of onmogelijke geometrieën creëren—structuren honderden kcal/mol boven het minimum. Op de Riemanniaanse variëteit houdt dezelfde ruisgrootte moleculen chemisch zinnig, binnen dezelfde potentiële put. Het denoising-pad zelf volgt geodetische lijnen die de energie-minimalisatie volgen, niet willekeurige rechte lijnen door de Cartesiaanse ruimte.
De resultaten bereiken de drempel die ertoe doet: chemische nauwkeurigheid, gedefinieerd als een energie-fout onder 1 kcal/mol. Op de QM9 benchmark bereikt het Riemanniaanse model een mediaan fout van 0,177 kcal/mol—ongeveer 20× beter dan de startstructuren van het krachtveld en aanzienlijk beter dan de Euclidische versie. Wanneer deze voorspellingen worden gebruikt als startpunten voor DFT-verfijning, daalt de computationele kost met meer dan de helft.
Het diepere punt: in moleculaire modellering is de geometrie van de representatieruimte niet neutraal. Euclidische ruimte behandelt alle atomaire verplaatsingen als gelijkwaardig; Riemanniaanse ruimte kan de fysica coderen. Wanneer je geometrische afstand afstemt op energetische kosten, wordt denoising optimalisatie, en leert het model de potentiële energieniveau te volgen in plaats van ertegen te vechten.
Paper:

3
Het ontgrendelen van single-cell foundation modellen met 96% minder parameters
Single-cell large language models (scLLMs) hebben opmerkelijke biologische kennis geleerd van miljoenen cellen. Maar ze hebben een kritieke zwakte: haal ze uit hun trainingscontext—een nieuwe ziekte, een ongeziene soort, een ongekarakteriseerde celpopulatie—en hun voorspellingen worden onbetrouwbaar.
De standaardoplossing is fine-tuning. Maar fine-tuning overschrijft de oorspronkelijke modelparameters, wat "catastrofale vergetelheid" van vooraf geleerde biologische kennis veroorzaakt. En het is computationeel duur, wat aanzienlijke GPU-resources vereist die veel onderzoekers simpelweg niet hebben.
Fei He en co-auteurs stellen scPEFT voor—een parameter-efficiënt fine-tuning framework dat de oorspronkelijke scLLM backbone bevriest en alleen kleine, laag-dimensionale adapters traint. Vier adaptertypes (Token adapter, Prefix adapter, LoRA, Encoder adapter) passen in verschillende delen van de modelarchitectuur, leren taak-specifieke aanpassingen zonder de voorgetrainde gewichten aan te raken.
De efficiëntieverbeteringen zijn opvallend: scPEFT vermindert trainbare parameters met meer dan 96% en snijdt het GPU-geheugengebruik met meer dan de helft. Maar hier is wat ertoe doet—het presteert daadwerkelijk beter dan volledige fine-tuning. Op ziekte-specifieke datasets (NSCLC, MS, COVID-19) behaalt scPEFT 39,7–81,7% nauwkeurigheidsverbeteringen ten opzichte van native modellen en 4,3–15% winst ten opzichte van fine-tuned versies, precies omdat het de voorgetrainde kennis behoudt in plaats van deze te overschrijven.
Het framework maakt ook cross-soort overdracht mogelijk van mensgetrainde modellen: 14% verbetering op muisneuronen, 39% op macaque kiemcellen, en 144% op C. elegans—allemaal met behulp van orthologe genmapping. Aandachtanalyse identificeert COVID-gerelateerde genen in specifieke T-celtoestanden en onthult biologisch relevante subpopulaties die onzichtbaar zijn voor fine-tuned modellen.
De bredere implicatie: naarmate foundation modellen zich verspreiden in de biologie, hebben we efficiënte manieren nodig om ze aan te passen zonder te vernietigen wat ze hebben geleerd. scPEFT toont aan dat soms, minder bijwerken betekent meer leren.
Paper:

16
Neuro-wetenschappelijk geïnspireerde architecturen voor het bouwen van echt adaptieve AI
Moderne AI-systemen zijn krachtig maar kwetsbaar. Train een model, implementeer het, en kijk hoe de prestaties verslechteren naarmate de wereld verandert. Hertrainen op nieuwe gegevens, en het model vergeet wat het wist. Deze cyclus produceert systemen die uitblinken in statische benchmarks maar moeite hebben met continue aanpassing—iets wat biologische intelligentie moeiteloos afhandelt.
Een muis kan met een paar pogingen leren om water te vinden in een nieuw labyrint in ongeveer tien pogingen, een leersnelheid die 1.000 keer sneller is dan traditionele laboratoriumtaken. Toch lijden onze meest geavanceerde neurale netwerken aan catastrofaal vergeten wanneer ze sequentieel moeten leren.
De hersenen bieden een andere architectuur. Ze functioneren niet als een enkele verwarde netwerk maar als slim met elkaar verbonden gespecialiseerde modules—de visuele cortex verwerkt randen, de motorische cortex rekent in kracht ruimte, prefrontale gebieden volgen taak-gestructureerd geheugen. Elke module bouwt interne modellen die worden bijgewerkt via voorspellingsfouten wanneer verwachte uitkomsten afwijken van de werkelijkheid. Deze ondertekende onderwijssignalen zijn nu ontdekt in sensorische, motorische en beloningscircuits.
Mackenzie Weygandt Mathis synthetiseert deze inzichten in een voorstel voor adaptieve agentische AI. In plaats van steeds grotere monolithische fundamentmodellen na te streven, pleit ze voor systemen van domeinspecifieke encoders wiens outputs gezamenlijk zijn geoptimaliseerd in een gedeelde latente ruimte. Elke encoder wordt gemonitord door voorspellingsfoutsignalen—robuuste encoders blijven "vergrendeld" terwijl die met verslechterde prestaties "ontgrendeld" worden voor continue leren met behulp van geheugenherhaling of synaptische intelligentie, zonder het hele systeem offline te nemen.
Het bredere principe: door AI te structureren rond neuro-wetenschappelijk geïnspireerde modulariteit en voorspellingsfout-gebaseerde updates in plaats van monolithische schaal, wordt het mogelijk om verder te gaan dan statische modellen naar oprecht adaptieve intelligentie—systemen die continu hun modellen van de wereld verfijnen door interactie ermee.
Paper:

46
Boven
Positie
Favorieten
