Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Max Ryabinin
Apprentissage profond et recherche à grande échelle @togethercompute
Learning@home/Hivemind auteur (DMoE, DeDLOC, SWARM, Petals)
Doctorat en DL décentralisé '2023
Une parallélisation de pipeline tolérante aux pannes (style SWARM/Petals) avec compression, adaptée à un run de préentraînement ouvert !
Sur une note personnelle, je suis vraiment content que Hivemind alimente certaines parties de ce projet — tant pour les pipelines que pour un parallélisme de données robuste.


29
Si vous êtes à l’ICML et que vous vous intéressez à l’inférence vérifiable, assurez-vous de vous arrêter à notre affiche !
Nous présenterons TOPLOC, une méthode de hachage d’activation efficace qui fonctionne sur une variété de paramètres, par exemple en changeant de configuration d’inférence ou même de modèle.
16 juillet, 16 h 30, E-1106
502
D’après mon expérience, il peut être assez difficile d’obtenir l’acceptation d’un article sur l’apprentissage décentralisé lors de conférences de haut niveau. La motivation n’est pas familière à de nombreux examinateurs, et les paramètres d’expérience standard ne tiennent pas compte des problèmes que vous souhaitez résoudre.
Par conséquent, je suis très enthousiaste à l’idée de voir des entreprises comme @PluralisHQ et @PrimeIntellect investir l’effort de partager leurs résultats et de les publier lors de grandes conférences ! OMI, même la préparation de la soumission vous oblige à être plus rigoureux dans vos expériences + les commentaires extérieurs des examinateurs vous aident à affiner le message de l’article.

Alexander Long14 juil. 2025
Pour les personnes qui ne sont pas familières avec la publication en IA ; il y a 3 grandes conférences chaque année. ICML, ICLR et NeurIPS. Ce sont des conférences techniques et l'équivalent des revues dans d'autres disciplines - elles sont le principal lieu de publication pour l'IA. La concurrence pour avoir des articles à ces conférences est maintenant à un niveau ridicule, obtenir l'acceptation des articles est très difficile, et il y a beaucoup de préoccupations concernant le processus de révision qui est assez bruyant à ce stade. Un article solide sans défaut a environ 50 % de chances d'être accepté, et généralement un article est soumis avec des modifications des examinateurs plusieurs fois jusqu'à ce qu'il soit accepté. Malgré tout cela, les articles dans ces lieux restent le principal tampon de légitimité dans le monde de l'IA, et sont probablement encore les principales métriques de carrière pour les chercheurs en ML (bien que cela s'affaiblisse à mon avis, car une grande partie de la recherche dans les laboratoires de pointe n'est pas publiée).
Les articles de la piste principale sont significativement différents des articles d'atelier. La piste principale a une révision par les pairs intense et sérieuse. Les articles d'atelier sont pour des travaux préliminaires, qui donnent une indication d'un résultat intéressant, mais qui ne sont soit pas complets, soit le résultat n'est pas suffisamment significatif pour la piste principale. Ils ne sont requis d'être examinés que par le pool d'examinateurs de l'atelier et ils n'apparaissent pas dans les actes.
De nombreux excellents articles ont d'abord été présentés dans des ateliers (par exemple, grokking) - mais les articles d'atelier et de la piste principale sont fondamentalement des choses différentes, avec un niveau d'impact fondamentalement différent. Les deux seules entreprises dans l'IA décentralisée qui ont des articles de la piste principale cette année sont @PrimeIntellect et Pluralis.
520
Meilleurs
Classement
Favoris