Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai chercheur. Les opinions sont les miennes.
Christian Szegedy a reposté
Ce document fait une affirmation audacieuse !
Moment AlphaGo pour la découverte d'architectures de modèles
Les chercheurs introduisent ASI-Arch, la première Superintelligence Artificielle pour la Recherche en IA (ASI4AI), permettant une innovation d'architecture neuronale entièrement automatisée.
Pas d'espace de recherche conçu par l'homme. Pas d'humain dans la boucle.
🔍 Principales avancées d'ASI-Arch :
- Génération et entraînement de code autonomes
- 1 773 expériences réalisées (plus de 20 000 heures GPU)
- 106 nouvelles architectures d'attention linéaire SOTA découvertes
- Révélation d'une loi d'échelle pour la découverte scientifique

33,15K
Christian Szegedy a reposté
⏱️L'IA facilite le processus de vérification, avec des modèles vérifiant les preuves en quelques minutes.
💻 Maintenant, @prfsanjeevarora, @chijinML, @danqi_chen et @PrincetonPLI ont lancé Goedel Prover V2, un modèle plus efficace et plus précis que tout modèle précédent.
👉

16,06K
Christian Szegedy a reposté
Une version avancée de Gemini avec Deep Think a officiellement atteint des performances de niveau médaille d'or à l'Olympiade Internationale de Mathématiques. 🥇
Elle a résolu 5️⃣ des 6️⃣ problèmes exceptionnellement difficiles, impliquant l'algèbre, la combinatoire, la géométrie et la théorie des nombres. Voici comment 🧵

6,7K
Christian Szegedy a reposté
BatchNorm remporte le Test-of-Time Award à #ICML2025 ! 🎉
BatchNorm a révolutionné l'apprentissage profond en s'attaquant au décalage de covariables internes, qui peut ralentir l'apprentissage, limiter les taux d'apprentissage et rendre difficile l'entraînement de réseaux profonds.
En normalisant les entrées au sein de chaque mini-lot, BatchNorm a considérablement stabilisé et accéléré l'entraînement. Cela a permis des taux d'apprentissage plus élevés, amélioré le flux de gradients et ouvert la voie à des architectures beaucoup plus profondes comme ResNet.
Au-delà de la réduction du décalage de covariables internes, BatchNorm lisse également le paysage d'optimisation et améliore la généralisation du modèle, en faisant une pierre angulaire de l'entraînement moderne des réseaux de neurones.
Bien mérité, @Sergey_xai et @ChrSzegedy !

9,71K
Christian Szegedy a reposté
Nouveau papier de @Scale_AI ! 🌟
Les LLMs entraînés avec RL peuvent exploiter des hacks de récompense mais ne le mentionnent pas dans leur CoT. Nous introduisons le fine-tuning de verbalisation (VFT) — enseigner aux modèles à dire quand ils exploitent des hacks de récompense — réduisant de manière spectaculaire le taux de hacks non détectés (6 % contre une base de 88 %).

16,91K
Une cerise de la taille d'un melon sur le dessus :)

Shane Gu11 juil., 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables