Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai ricercatrice. Le opinioni sono mie.
Christian Szegedy ha ripubblicato
Questo documento fa un'affermazione audace!
Momento AlphaGo per la scoperta dell'architettura dei modelli
I ricercatori introducono ASI-Arch, la prima Superintelligenza Artificiale per la Ricerca AI (ASI4AI), che consente un'innovazione completamente automatizzata dell'architettura neurale.
Nessuno spazio di ricerca progettato da esseri umani. Nessun umano nel processo.
🔍 Principali scoperte di ASI-Arch:
- Generazione e addestramento autonomi del codice
- 1.773 esperimenti condotti (oltre 20.000 ore GPU)
- 106 nuove architetture di attenzione lineare SOTA scoperte
- Svelata una legge di scalabilità per la scoperta scientifica

33,15K
Christian Szegedy ha ripubblicato
⏱️L'IA sta rendendo il processo di verifica più semplice, con modelli che verificano le prove in pochi minuti.
💻 Ora, @prfsanjeevarora, @chijinML, @danqi_chen e @PrincetonPLI hanno rilasciato Goedel Prover V2, un modello più efficiente e più preciso di qualsiasi modello precedente.
👉

16,06K
Christian Szegedy ha ripubblicato
Una versione avanzata di Gemini con Deep Think ha ufficialmente raggiunto prestazioni da medaglia d'oro all'Olimpiade Internazionale di Matematica. 🥇
Ha risolto 5️⃣ su 6️⃣ problemi eccezionalmente difficili, che coinvolgono algebra, combinatoria, geometria e teoria dei numeri. Ecco come 🧵

6,7K
Christian Szegedy ha ripubblicato
BatchNorm vince il Test-of-Time Award all'#ICML2025! 🎉
BatchNorm ha rivoluzionato il deep learning affrontando il cambiamento di covariate interne, che può rallentare l'apprendimento, limitare i tassi di apprendimento e rendere difficile l'addestramento di reti profonde.
Normalizzando gli input all'interno di ogni mini-batch, BatchNorm ha stabilizzato e accelerato significativamente l'addestramento. Ha permesso tassi di apprendimento più elevati, migliorato il flusso del gradiente e aperto la strada a architetture molto più profonde come ResNet.
Oltre a ridurre il cambiamento di covariate interne, BatchNorm rende anche più fluido il paesaggio di ottimizzazione e migliora la generalizzazione del modello, rendendolo un pilastro dell'addestramento moderno delle reti neurali.
Ben meritato, @Sergey_xai e @ChrSzegedy!

9,71K
Christian Szegedy ha ripubblicato
Nuovo documento di @Scale_AI! 🌟
I LLM addestrati con RL possono sfruttare le tecniche di ricompensa ma non menzionano questo nel loro CoT. Introduciamo il fine-tuning della verbalizzazione (VFT)—insegnare ai modelli a dire quando stanno sfruttando le ricompense—riducendo drasticamente il tasso di hack non rilevati (6% rispetto a un baseline dell'88%).

16,91K
Una ciliegia delle dimensioni di un melone sopra :)

Shane Gu11 lug, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari