Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Professore di Fisica @UAM_Madrid | Professore. PI del laboratorio AI for Materials | Direttore del laboratorio AI for Materials.
Perché le reti neurali apprendono al limite del caos
Quando alleni una rete neurale, gli aggiornamenti dei parametri non sono normalmente distribuiti. Hanno una coda pesante: salti grandi e rari punteggiano molti piccoli aggiustamenti. Questo schema appare in MLP, CNN e Transformer, attraverso MNIST e CIFAR-10, durante l'apprendimento rapido iniziale e la convergenza tardiva. È sospettosamente universale.
Xin-Ya Zhang e Chao Tang sostengono che non si tratta di una stranezza del gradiente stocastico o del rumore del mini-batch. È una firma della criticità auto-organizzata, che emerge da un compromesso fondamentale: il principio di massima entropia spinge la rete a esplorare liberamente, mentre un vincolo di informazione reciproca costringe gli aggiornamenti a rimanere pertinenti al compito. Bilancia queste due forze e ottieni statistiche di legge di potenza: lo stesso comportamento di scalabilità visto nei terremoti, nelle valanghe neuronali e nei mercati finanziari.
Le prove sono convincenti. L'esponente della legge di potenza rimane notevolmente stabile durante l'addestramento, anche se la perdita diminuisce di ordini di grandezza. Il paesaggio della perdita stessa mostra una struttura multiscala: liscezza esponenziale sotto piccole perturbazioni (bacini localmente piatti), che si trasformano in ruvidità di legge di potenza a scale maggiori. Anche il tempismo dei grandi aggiornamenti segue statistiche a coda pesante: grandi eventi di apprendimento si raggruppano insieme piuttosto che verificarsi casualmente, con esponenti intorno a 2.5–2.7.
Ciò che rende questo concettualmente soddisfacente è la derivazione teorica dai principi fondamentali. Partendo dalla massimizzazione dell'entropia sotto un vincolo informativo e utilizzando una formulazione a integrale di percorso della divergenza KL attraverso lo spazio dei parametri, gli autori recuperano esattamente il comportamento di scalabilità osservato. Nessuna messa a punto fine, nessuna assunzione ad hoc.
Le implicazioni sono profonde: l'apprendimento delle reti neurali non è solo ottimizzazione—è un processo fisico non in equilibrio governato dagli stessi principi statistici che modellano i sistemi complessi in tutta la natura. Comprendere questo potrebbe guidare la progettazione di algoritmi di apprendimento più efficienti e spiegare perché il SGD generalizza meglio rispetto ai metodi adattivi che sopprimono grandi aggiornamenti esplorativi.
Carta:

5
L'AI generativa decifra le strutture dei MOF direttamente dai modelli di diffrazione a raggi X
I framework metal-organici (MOF) sono materiali straordinariamente utili: porosi, regolabili, applicabili a tutto, dalla conservazione dei gas alla somministrazione di farmaci. Ma identificare le loro strutture dai dati di diffrazione a raggi X in polvere rimane un collo di bottiglia, specialmente per i laboratori automatizzati dove non è possibile avere un esperto che interpreti manualmente ogni modello.
Il problema principale: i MOF possono contenere centinaia di atomi disposti in reti tridimensionali complesse. Gli approcci standard all'interpretazione della diffrazione a raggi X faticano con i picchi sovrapposti e la pura diversità strutturale.
Bin Feng, Bingxu Wang e colleghi riformulano il problema come generazione di immagini. Il loro modello, Xrd2Mof, tratta i modelli di diffrazione a raggi X come suggerimenti testuali e le strutture dei MOF come le immagini da generare—applicando poi l'architettura Stable Diffusion per apprendere la mappatura tra di essi.
L'intuizione chiave è la coarse-graining. Invece di cercare di prevedere ogni posizione atomica, rappresentano i MOF come reti di nodi metallici collegati da centroidi di collegamento. Questo funziona perché i picchi netti nei modelli di diffrazione a raggi X provengono principalmente da atomi di metallo pesante. Ridurre centinaia di atomi a dozzine di punti di connessione comprime il problema di un ordine di grandezza, preservando nel contempo le informazioni strutturali che contano realmente per la diffrazione.
Addestrato su quasi 80.000 strutture di MOF dal Cambridge Structural Database, Xrd2Mof raggiunge oltre il 93% di accuratezza nell'abbinare i modelli di diffrazione a raggi X alle loro strutture corrette. Copre essenzialmente tutte le topologie di framework conosciute e valida con successo su dati sperimentali.
L'implicazione pratica: i laboratori autonomi possono ora passare dai dati di diffrazione grezzi a strutture cristalline ricostruite senza intervento umano—una capacità che è mancata nei pipeline di scoperta automatizzata dei MOF.
Articolo:

79
Apprendimento automatico per prevedere quali MOF possono effettivamente essere realizzati in laboratorio
I framework metal-organici (MOF) sono tra i materiali più sintonizzabili mai creati: cristalli porosi assemblati da nodi metallici e leganti organici, con applicazioni che vanno dallo stoccaggio di gas alla catalisi. A livello computazionale, possiamo generare trilioni di possibili strutture. Il problema è che quasi nessuna di esse viene sintetizzata. Di migliaia di screening di MOF pubblicati fino ad oggi, solo una dozzina ha portato a una reale sintesi in laboratorio, e anche in quel caso, i chimici tendono a scegliere design "sicuri" che somigliano a strutture conosciute piuttosto che a quelle ottimali dal punto di vista computazionale.
Andre Niyongabo Rubungo e i coautori affrontano questo collo di bottiglia con tre ingredienti: (1) MOFMinE, un dataset recentemente curato di quasi un milione di MOF con energie di deformazione simulate e energie libere per un sottoinsieme di 65.000 strutture; (2) MOFSeq, una rappresentazione sequenziale che codifica sia le caratteristiche locali (SMILES dei blocchi costitutivi) sia le caratteristiche globali (topologia e connettività); e (3) LLM-Prop, un modello linguistico con 35 milioni di parametri pre-addestrato sui dati abbondanti di energia di deformazione, poi affinato sui calcoli di energia libera più costosi.
I risultati sono sorprendenti: un errore assoluto medio di 0.789 kJ/mol, il 97% di accuratezza nella previsione della sintetizzabilità e il 78% di accuratezza nella selezione del corretto polimorfo tra strutture concorrenti. Anche quando due polimorfi differiscono solo di 0.16 kJ/mol, il modello sceglie comunque quello giusto oltre il 60% delle volte.
L'implicazione è pratica: ciò che una volta richiedeva giorni di simulazione molecolare ora richiede un passaggio diretto attraverso una rete neurale. Questo apre un percorso per filtrare regolarmente gli screening computazionali di MOF in base alla sintetizzabilità prevista, permettendo agli sperimentatori di avventurarsi oltre i design "intuitivi" in regioni inesplorate dello spazio chimico, migliorando comunque le probabilità che ciò che sembra buono al computer possa effettivamente essere realizzato in laboratorio.
Articolo:

86
Principali
Ranking
Preferiti
