Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai forskare. Åsikterna är mina.
Christian Szegedy delade inlägget
Detta dokument gör ett djärvt påstående!
AlphaGo-ögonblick för upptäckt av modellarkitektur
Forskarna introducerar ASI-Arch, den första artificiella superintelligensen för AI-forskning (ASI4AI), som möjliggör helt automatiserad innovation inom neural arkitektur.
Inget mänskligt designat sökutrymme. Ingen människa i loopen.
🔍 Viktiga genombrott för ASI-Arch:
- Autonom kodgenerering och träning
- 1 773 experiment genomförda (20K+ GPU-timmar)
- 106 nya linjära uppmärksamhetsarkitekturer för SOTA har upptäckts
- Presenterade en skalningslag för vetenskapliga upptäckter

33,15K
Christian Szegedy delade inlägget
BatchNorm vinner Test-of-Time Award på #ICML2025! 🎉
BatchNorm revolutionerade djupinlärning genom att ta itu med intern kovariatförskjutning, vilket kan sakta ner inlärningen, begränsa inlärningshastigheten och göra det svårt att träna djupa nätverk.
Genom att normalisera indata i varje minibatch stabiliserade och påskyndade BatchNorm träningen avsevärt. Det möjliggjorde högre inlärningshastigheter, förbättrade gradientflödet och banade väg för mycket djupare arkitekturer som ResNet.
Förutom att minska den interna kovariatförskjutningen jämnar BatchNorm också ut optimeringslandskapet och förbättrar modellgeneraliseringen, vilket gör det till en hörnsten i modern träning av neurala nätverk.
Mycket välförtjänt, @Sergey_xai och @ChrSzegedy!

9,71K
Christian Szegedy delade inlägget
Nytt @Scale_AI papper! 🌟
LLM:er utbildade med RL kan utnyttja belöningshack men inte nämna detta i sin CoT. Vi introducerar finjustering av verbalisering (VFT) – lär modeller att säga när de belönar hackning – vilket dramatiskt minskar frekvensen av oupptäckta hackningar (6 % jämfört med baslinjen på 88 %).

16,91K
Ett melonstort körsbär på toppen :)

Shane Gu11 juli 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,56K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda