Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chayenne Zhao
Membru al personalului tehnic @radixark | RL scalabil @lmsysorg | Laboratorul SF AGI anterior @Amazon | Seed Infra ByteDance | NeuLab @LTIatCMU | BS @Tsinghua_Uni | Doctorat @UCLA
xAI > OpenAI. Schimbarea de atmosferă este reală.
Un prieten apropiat de-al meu — genul de inginer pentru care orice companie de nivel 1 luptă — tocmai și-a semnat oferta ieri. I-am spus direct: nici măcar nu a trebuit să ghicesc, știam că vei alege xAI. Ești o persoană clasică xAI.
Ceea ce oamenii nu înțeleg este "estetica forței brute" pe care Elon o construiește. În timp ce alte laboratoare sunt blocate în ședințe nesfârșite de siguranță și bucle de PR, xAI este doar luptă pură, brută. Este inginerie de înaltă intensitate la cel mai înalt nivel.
Cunosc atât de mulți monștri absoluti care s-au mutat recent acolo și nici măcar nu și-au atins biografiile de pe LinkedIn sau Twitter. Sunt prea ocupați să livreze cod și să valorifice puterea de calcul full-stack pe care doar Musk o poate oferi.
În această cursă, cei tăcuți care lucrează cu cea mai puternică echipă câștigă de obicei. xAI este scopul final.

Vahid Kazemi9 ian., 12:03
Pot spune cu încredere că echipa noastră de la @xAI este de 10 ori mai competentă decât fosta mea echipă de la @OpenAI.
22
Sfârșitul unei ere pentru FAIR în Meta, dar începutul unei Renașteri a Roboticii la FAR Amazon.
Oamenii subestimează Amazon FAR pentru că cred că este doar o altă ramură birocratică a imperiului Amazon. Greșit.
După ce am făcut un stagiu la FAR (LABORATORUL AGI SF) vara trecută, am văzut partea "ascunsă". În timp ce restul Amazon pare un gigant moștenit, FAR funcționează ca o echipă SEAL cu o densitate incredibilă de talente (echipa lui David Luan @jluan / Adept AI @AdeptAILabs este construită diferit).
Este același manual ca Qwen de la Alibaba sau MiMo de la Xiaomi: autonomie radicală = rezultate SOTA. În plus, spre deosebire de majoritatea celor de pe Amazon, FAR chiar te hrănește (cea mai bună mâncare din Vale, nu mă @).
Dacă pariezi împotriva Amazon în AI fizic, pariezi împotriva persoanelor greșite. Încă îmi lipsesc atmosferele biroului FAR și dezbaterile tehnice nesfârșite cu OGii de acolo.

Jitendra MALIK4 ian., 08:38
1/4 În ultimii ani am lucrat part-time la laboratorul FAIR din Meta, pe lângă faptul că am fost profesor la UC Berkeley. Acea fază s-a încheiat acum, iar începând cu 5 ianuarie, voi conduce un efort de cercetare în robotică la Amazon FAR în San Francisco, continuând în același timp la Berkeley.
24
Nu mai fi obsedat de "proprietăți emergente" 8B sau 70B. Majoritatea a ceea ce vezi este doar zgomot de măsurare și trișare la benchmark.
Am spus mereu că Zeyuan Allen-Zhu face cea mai riguroasă "Fizică" dintre LLM-urile. Așa cum am menționat în blogurile mele, majoritatea dezbaterilor academice despre arhitectură sunt pur și simplu cult cargo pentru că eșuează în controlul variabil.
Noul tutorial al lui Zeyuan demonstrează că un model de 100M poate dezvălui mai multe adevăruri arhitecturale decât un model 8B cu 1T-token. Dacă nu înțelegi, te joci doar cu LEGO-uri scumpe în întuneric.
Industria începe în sfârșit să se trezească: Scalarea fără să înțelegi "Fizica" este doar un joc de noroc al unui bogat.

Zeyuan Allen-Zhu, Sc.D.16 dec. 2025
(1/N)🚀Today we launch two tightly connected milestones in the Physics of LM series: a sharpened Part 4.1 (v2.0) and a brand new Part 4.2 — together forming a clear, reproducible, textbook-style reference for principled architecture research.
Part 4.1 introduced a synthetic pretraining playground — our Galileo experiment for LLMs🍎. Our v2.0 strengthens it with Gated DeltaNet (GDN) and stricter alignment, building an even cleaner “Pisa tower” for testing architectural limits.
Part 4.2 shows these synthetic predictions resonate in reality 🌍 — across 1–8B / 1T-token pretraining — confirming which design principles actually matter.
Together, Parts 4.1 and 4.2 bring the synthetic and real worlds into surprising agreement 🤝— one more step toward a more scientific understanding of LLM architectures.
If you’re curious about:
🧠why some models reason deeper
⚙️ why linear models struggle at retrieval
🎶why a tiny horizontal mixer (Canon) changes everything …
this release ties it all together.
(Links at the end)

26
Limită superioară
Clasament
Favorite
