Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai forsker. Meningene er mine.
Christian Szegedy lagt ut på nytt
Denne artikkelen kommer med en dristig påstand!
AlphaGo-øyeblikk for oppdagelse av modellarkitektur
Forskerne introduserer ASI-Arch, den første kunstige superintelligensen for AI-forskning (ASI4AI), som muliggjør helautomatisert innovasjon av nevrale arkitekturer.
Ingen menneskeskapt søkeplass. Ingen mennesker i loopen.
🔍 Viktige gjennombrudd for ASI-Arch:
- Autonom kodegenerering og opplæring
- 1 773 eksperimenter utført (20K+ GPU-timer)
- 106 nye SOTA lineære oppmerksomhetsarkitekturer oppdaget
- Avduket en skaleringslov for vitenskapelige oppdagelser

33,15K
Christian Szegedy lagt ut på nytt
En avansert versjon av Gemini med Deep Think har offisielt oppnådd gullmedaljenivå ved den internasjonale matematikkolympiaden. 🥇
Den løste ⃣ ut av 6️⃣ eksepsjonelt vanskelige problemer, som involverte 5️algebra, kombinatorikk, geometri og tallteori. Slik gjør du det 🧵

6,7K
Christian Szegedy lagt ut på nytt
BatchNorm vinner Test-of-Time Award på #ICML2025! 🎉
BatchNorm revolusjonerte dyp læring ved å adressere internt kovariatskifte, som kan bremse læring, begrense læringshastigheter og gjøre det vanskelig å trene dype nettverk.
Ved å normalisere innganger i hver minibatch, stabiliserte og akselererte BatchNorm treningen betydelig. Det muliggjorde høyere læringshastigheter, forbedret gradientflyt og banet vei for mye dypere arkitekturer som ResNet.
I tillegg til å redusere intern kovariatforskyvning, jevner BatchNorm også ut optimaliseringslandskapet og forbedrer modellgeneraliseringen, noe som gjør det til en hjørnestein i moderne nevrale nettverkstrening.
Veldig velfortjent, @Sergey_xai og @ChrSzegedy!

9,71K
Christian Szegedy lagt ut på nytt
Nytt @Scale_AI papir! 🌟
LLM-er trent med RL kan utnytte belønningshacks, men ikke nevne dette i CoT. Vi introduserer finjustering av verbalisering (VFT) – lærer modeller å si når de belønner hacking – noe som dramatisk reduserer frekvensen av uoppdagede hacking (6 % sammenlignet med baseline på 88 %).

16,91K
Et kirsebær på størrelse med en melon på toppen :)

Shane Gu11. juli, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,56K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til