Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chayenne Zhao
Membro dello staff tecnico @radixark | RL scalabile @lmsysorg | Laboratorio SF AGI @Amazon Seed Infra ByteDance | NeuLab @LTIatCMU | BS @Tsinghua_Uni | Dottorato @UCLA
xAI > OpenAI. Il cambiamento di vibe è reale.
Un mio caro amico—il tipo di ingegnere per cui ogni azienda di Tier 1 lotta—ha appena firmato la sua offerta ieri. Gli ho detto chiaramente: non dovevo nemmeno indovinare, sapevo che avresti scelto xAI. Sei una persona xAI classica.
Quello che la gente non capisce è l'"estetica della forza bruta" che Elon sta costruendo. Mentre altri laboratori sono bloccati in interminabili riunioni di sicurezza e loop di PR, xAI è solo puro, crudo combattimento. È ingegneria ad alta intensità al suo meglio.
Conosco così tanti mostri assoluti che si sono trasferiti lì di recente e non hanno nemmeno toccato i loro profili LinkedIn o Twitter. Sono troppo impegnati a spedire codice e sfruttare la potenza di calcolo full-stack che solo Musk può fornire.
In questa corsa, i silenziosi che lavorano con il team più potente di solito vincono. xAI è il gioco finale.

Vahid Kazemi9 gen, 12:03
Posso dire con certezza che il nostro team di @xAI è 10 volte più competente del mio precedente team di @OpenAI.
18
Fine di un'era per FAIR in Meta, ma l'inizio di un Rinascimento della Robotica in FAR Amazon.
La gente sottovaluta Amazon FAR perché pensa che sia solo un altro braccio burocratico dell'impero Amazon. Sbagliato.
Avendo fatto uno stage presso FAR (AGI SF Lab) la scorsa estate, ho visto il lato "nascosto". Mentre il resto di Amazon sembra un gigante legacy, FAR opera come un team SEAL con una densità di talento incredibile (David Luan @jluan / Adept AI @AdeptAILabs la crew è costruita in modo diverso).
È lo stesso playbook di Qwen di Alibaba o MiMo di Xiaomi: autonomia radicale = risultati SOTA. Inoltre, a differenza della maggior parte di Amazon, FAR ti nutre davvero (il miglior cibo nella Valley, non @ me).
Se stai scommettendo contro Amazon nell'AI fisica, stai scommettendo contro le persone sbagliate. Mi mancano ancora le vibrazioni dell'ufficio FAR e i dibattiti tecnici infiniti con gli OG lì.

Jitendra MALIK4 gen, 08:38
1/4 For the last several years I worked part-time at the FAIR lab at Meta, in addition to being a professor at UC Berkeley. That phase is now over, and starting Jan. 5, I will be leading a robotics research effort at Amazon FAR in San Francisco, while continuing at Berkeley.
2
Smettila di essere ossessionato da 8B o 70B "proprietà emergenti" spazzatura. La maggior parte di ciò che vedi è solo rumore di misurazione e imbrogli sui benchmark.
Ho sempre detto che Zeyuan Allen-Zhu sta facendo la "Fisica" più rigorosa degli LLM. Come ho notato nei miei blog, la maggior parte dei dibattiti accademici sull'architettura è solo un culto del cargo perché falliscono nel controllo delle variabili.
Il nuovo tutorial di Zeyuan dimostra che un modello da 100M può rivelare più verità architettoniche di un modello da 1T-token 8B. Se non stai seguendo questo, stai solo giocando con costosi LEGO al buio.
L'industria si sta finalmente svegliando: scalare senza comprendere la "Fisica" è solo il gioco d'azzardo di un uomo ricco.

Zeyuan Allen-Zhu, Sc.D.16 dic 2025
(1/N)🚀Today we launch two tightly connected milestones in the Physics of LM series: a sharpened Part 4.1 (v2.0) and a brand new Part 4.2 — together forming a clear, reproducible, textbook-style reference for principled architecture research.
Part 4.1 introduced a synthetic pretraining playground — our Galileo experiment for LLMs🍎. Our v2.0 strengthens it with Gated DeltaNet (GDN) and stricter alignment, building an even cleaner “Pisa tower” for testing architectural limits.
Part 4.2 shows these synthetic predictions resonate in reality 🌍 — across 1–8B / 1T-token pretraining — confirming which design principles actually matter.
Together, Parts 4.1 and 4.2 bring the synthetic and real worlds into surprising agreement 🤝— one more step toward a more scientific understanding of LLM architectures.
If you’re curious about:
🧠why some models reason deeper
⚙️ why linear models struggle at retrieval
🎶why a tiny horizontal mixer (Canon) changes everything …
this release ties it all together.
(Links at the end)

2
Principali
Ranking
Preferiti
