Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai Forscher. Meine Meinung ist meine.
Christian Szegedy erneut gepostet
Dieses Papier macht eine kühne Behauptung!
AlphaGo-Moment für die Entdeckung von Modellarchitekturen
Die Forscher stellen ASI-Arch vor, die erste Künstliche Superintelligenz für die KI-Forschung (ASI4AI), die eine vollständig automatisierte Innovation von neuronalen Architekturen ermöglicht.
Kein menschlich gestalteter Suchraum. Kein Mensch im Prozess.
🔍 Wichtige Durchbrüche von ASI-Arch:
- Autonome Code-Generierung & Training
- 1.773 durchgeführte Experimente (über 20.000 GPU-Stunden)
- 106 neue SOTA-Architekturen mit linearer Aufmerksamkeit entdeckt
- Ein Skalierungsgesetz für wissenschaftliche Entdeckungen enthüllt

33,15K
Christian Szegedy erneut gepostet
⏱️ KI macht den Verifizierungsprozess einfacher, indem Modelle Beweise in Minuten überprüfen.
💻 Jetzt haben @prfsanjeevarora, @chijinML, @danqi_chen und @PrincetonPLI Goedel Prover V2 veröffentlicht, ein Modell, das effizienter und genauer ist als jedes vorherige Modell.
👉

16,06K
Christian Szegedy erneut gepostet
Eine fortgeschrittene Version von Gemini mit Deep Think hat offiziell eine Goldmedaille-Leistung bei der Internationalen Mathematik-Olympiade erreicht. 🥇
Es hat 5️⃣ von 6️⃣ außergewöhnlich schwierigen Problemen gelöst, die Algebra, Kombinatorik, Geometrie und Zahlentheorie umfassen. So geht's 🧵

6,7K
Christian Szegedy erneut gepostet
BatchNorm gewinnt den Test-of-Time Award bei #ICML2025! 🎉
BatchNorm hat das Deep Learning revolutioniert, indem es den internen Kovariatenverschiebung angegangen ist, die das Lernen verlangsamen, die Lernraten einschränken und das Training tiefer Netzwerke erschweren kann.
Durch die Normalisierung der Eingaben innerhalb jedes Mini-Batches hat BatchNorm das Training erheblich stabilisiert und beschleunigt. Es ermöglichte höhere Lernraten, verbesserte den Gradientfluss und ebnete den Weg für viel tiefere Architekturen wie ResNet.
Neben der Reduzierung der internen Kovariatenverschiebung glättet BatchNorm auch die Optimierungslandschaft und verbessert die Generalisierung des Modells, was es zu einem Grundpfeiler des modernen Trainings neuronaler Netzwerke macht.
Sehr wohl verdient, @Sergey_xai und @ChrSzegedy!

9,71K
Christian Szegedy erneut gepostet
Neues @Scale_AI-Papier! 🌟
LLMs, die mit RL trainiert wurden, können Belohnungshacks ausnutzen, erwähnen dies jedoch nicht in ihrem CoT. Wir stellen die Verbalization Fine-Tuning (VFT) vor – das Lehren von Modellen, zu sagen, wenn sie Belohnungshacks durchführen – was die Rate unentdeckter Hacks dramatisch reduziert (6 % im Vergleich zu einer Basisrate von 88 %).

16,91K
Eine melonenförmige Kirsche obendrauf :)

Shane Gu11. Juli, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten