Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai naukowiec. Opinie są moje.
Użytkownik Christian Szegedy udostępnił ponownie
Ten artykuł stawia odważne twierdzenie!
Moment AlphaGo dla odkrywania architektury modeli
Badacze wprowadzają ASI-Arch, pierwszą Sztuczną Superinteligencję do badań AI (ASI4AI), umożliwiającą w pełni zautomatyzowaną innowację architektury neuronowej.
Brak przestrzeni wyszukiwania zaprojektowanej przez człowieka. Brak człowieka w pętli.
🔍 Kluczowe przełomy ASI-Arch:
- Autonomiczne generowanie kodu i trening
- 1 773 przeprowadzonych eksperymentów (ponad 20K godzin GPU)
- Odkryto 106 nowych architektur liniowych z SOTA z uwagą
- Odkryto prawo skalowania dla odkryć naukowych

33,15K
Użytkownik Christian Szegedy udostępnił ponownie
⏱️AI ułatwia proces weryfikacji, a modele weryfikują dowody w ciągu kilku minut.
💻 Teraz, @prfsanjeevarora, @chijinML, @danqi_chen i @PrincetonPLI wydali Goedel Prover V2, model bardziej wydajny i dokładniejszy niż jakikolwiek wcześniejszy model.
👉

16,06K
Użytkownik Christian Szegedy udostępnił ponownie
Zaawansowana wersja Gemini z Deep Think oficjalnie osiągnęła poziom złotego medalu na Międzynarodowej Olimpiadzie Matematycznej. 🥇
Rozwiązała 5️⃣ z 6️⃣ wyjątkowo trudnych problemów, obejmujących algebrę, kombinatorykę, geometrię i teorię liczb. Oto jak 🧵

6,7K
Użytkownik Christian Szegedy udostępnił ponownie
BatchNorm zdobywa nagrodę Test-of-Time na #ICML2025! 🎉
BatchNorm zrewolucjonizował uczenie głębokie, rozwiązując problem wewnętrznego przesunięcia kowariancji, które może spowolnić uczenie, ogranicza tempo uczenia i utrudnia trenowanie głębokich sieci.
Normalizując dane wejściowe w każdej mini-partii, BatchNorm znacząco ustabilizował i przyspieszył proces treningu. Umożliwił wyższe tempo uczenia, poprawił przepływ gradientów i otworzył drogę dla znacznie głębszych architektur, takich jak ResNet.
Oprócz redukcji wewnętrznego przesunięcia kowariancji, BatchNorm również wygładza krajobraz optymalizacji i poprawia generalizację modelu, co czyni go fundamentem nowoczesnego treningu sieci neuronowych.
Bardzo zasłużone, @Sergey_xai i @ChrSzegedy!

9,71K
Użytkownik Christian Szegedy udostępnił ponownie
Nowy artykuł @Scale_AI! 🌟
LLM-y trenowane z użyciem RL mogą wykorzystywać haki nagród, ale nie wspominają o tym w swoim CoT. Wprowadzamy fine-tuning werbalizacji (VFT) — uczymy modele, aby mówiły, kiedy wykorzystują haki nagród — co dramatycznie zmniejsza wskaźnik nieodkrytych haków (6% w porównaniu do bazowego poziomu 88%).

16,91K
Wiśnia wielkości melona na wierzchu :)

Shane Gu11 lip, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,58K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi