Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Max Ryabinin
Deep learning e ricerca su larga scala @togethercompute
Learning@home/Autore di Hivemind (DMoE, DeDLOC, SWARM, Petals)
Dottorato di ricerca in DL decentrato '2023
Se sei all'ICML e sei interessato all'inferenza verificabile, assicurati di passare dal nostro poster!
Presenteremo TOPLOC, un metodo di hashing delle attivazioni efficiente che funziona in una varietà di contesti, ad esempio cambiando le configurazioni di inferenza o anche i modelli.
16 luglio, 16:30, E-1106
1,43K
Dalla mia esperienza, far accettare un articolo sulla DL decentralizzata a conferenze di alto livello può essere piuttosto difficile. La motivazione non è familiare a molti revisori, e le impostazioni standard degli esperimenti non tengono conto dei problemi che intendi risolvere.
Pertanto, sono molto entusiasta di vedere aziende come @PluralisHQ e @PrimeIntellect investire sforzi per condividere i loro risultati e farli pubblicare in conferenze importanti! IMO anche preparare la sottomissione ti costringe a essere più rigoroso riguardo ai tuoi esperimenti + il feedback esterno dei revisori ti aiuta a affinare il messaggio dell'articolo.

Alexander Long14 lug, 08:24
For people not familiar with AI publishing; there are 3 main conferences every year. ICML, ICLR and NeurIPS. These are technical conferences and the equivalent of journals in other disciplines - they are the main publishing venue for AI. The competition to have papers at these conferences is now at a ridiculous level, getting papers accepted is very hard, and there is a lot of concern about the review process which is quite noisey at this point. A strong paper with no flaws has around a 50% chance of being accepted, and typically a paper is submitted with reviewer changes several times until it is accepted. Despite all that, papers in these venues remain the primary stamp of legitimacy in AI world, and are probably still the primary career metrics for ML researchers (although this is weakening imo as so much of the research in the frontier labs is unpublished).
Main Track papers are significantly different to workshop papers. The main track has intense, serious peer review. Workshop papers are for preliminary work, that give some indication of an interesting result, but are either not complete or the result is not significant enough for main track. They are only required to be reviewed by the workshop reviewer pool and they don’t appear in proceedings.
Many great papers have first shown up in workshops (e.g. grokking) - but workshop and main track papers are fundamentally different things, with a fundamentally different level of impact. The only two companies in decentralised AI that have main track papers this year are @PrimeIntellect and Pluralis.
7,28K
Max Ryabinin ha ripubblicato
@gowthami_s @JangLawrenceK @IAmTimNguyen @ishapuri101 Formazione distribuita in Machine Learning🌍
Unisciti a noi il 12 luglio mentre @Ar_Douillard esplora metodi chiave come FSDP, Pipeline e Expert Parallelism, oltre ad approcci emergenti come DiLoCo e SWARM, spingendo i limiti della formazione globale e distribuita.
Ulteriori informazioni:

7,27K
Grazie mille a Ferdinand per aver ospitato questa conversazione! È stata una grande opportunità per rivedere tutte le parti di SWARM e discutere a fondo la motivazione dietro di esse.
Spero che questo video renda il DL decentralizzato più accessibile: molte idee nel campo sono più semplici di quanto sembrino!

Ferdinand Mom12 giu 2025
La recensione video del documento di ricerca su "Swarm Parallelism" insieme all'autore @m_ryabinin, Distinguished Research Scientist @togethercompute è ora disponibile! Link qui sotto 👇
Per contesto, la maggior parte dei training decentralizzati oggi segue approcci in stile DDP che richiedono una replica completa del modello su ogni nodo. Sebbene sia pratico per coloro che hanno cluster H100 a disposizione, questo rimane fuori portata per la stragrande maggioranza dei potenziali contributori, ed è qui che SWARM si rivela utile!

3,12K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari