Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ahmad
ai-forsker og programvareingeniør, på et oppdrag for å bygge en DGX B200 GPU-klynge
Ekstremt bearish signal
> potensielle ansettelser for vin og spising
> skjer enten av generøsitet
> eller desperasjon
>I dette tilfellet er det det siste
Zuckerberg vil bli husket for
> ansettelsen av Alexandr Wang,
> å gjøre ham til sjef for Yann LeCun &
> ødeleggende FAIR
toppet seg med Llama3 tror


Yuchen Jin3. des., 02:47
OpenAIs Chen:
- "Meta gikk etter halvparten av mine direkte underordnede, og de avslo alle."
- "Meta har 10 milliarder dollar i kapital per år å bruke på talent."
- "Zuck lagde og leverte suppe for hånd til folk han prøvde å ansette fra OpenAI."
Vanvittig AI-talentkrig.
13,17K
> være Arcee
> se deg rundt
> innser at open-weight frontier MoE i praksis er et Qwen/DeepSeek-monopol
> bestemmer meg for «nei, vi bygger vår egen»
> faktisk fortrening fra ende til slutt
> på amerikansk jord
> introduksjon av Trinity
> Nano (6B MoE) og Mini (26B MoE)
> åpne vekter, Apache 2.0
> gratis på OpenRouter foreløpig
> Nano: personlighetsmodell med 800 millioner aktive parametere
> Mini: resonnementsmodell med 3B aktiv
> Large: trener akkurat nå på 2048 B300 fordi hvorfor ikke
> fremtid er åpenbar
> modellene vil ikke være statiske apparater
> det vil være systemer som vokser
> tilpasse seg
> lære av brukerne dine
> omskole fra levende bruk
> du kan ikke gjøre det hvis du ikke eier vektene
> eller treningssløyfen
> så snur Arcee bordet
> bestemmer seg for å forhåndstrene alt selv
> steg 1: AFM-4.5B
> 8T kuraterte tokens
> trent med DatologyAI
> "kan vi i det hele tatt gjøre dette"-eksperimentet
> svar: ja
> også: matte og kode gjør fortsatt vondt
> fortsetter uansett
> steg 2: Trinity Nano & Mini
> hopper rett til MoE-grenselandet
> 56 lag, 128 eksperter
> sigmoid-ruting, delt ekspert, ingen aux-tap
> lukket oppmerksomhet, QK-norm, grupperte spørringer
> lokal/global mønsterdannelse
> muon-optimalisator
> BF16-trening på 512 H200
> hele Dion/TorchTitan/HSDP-spesialen
> kontekstlengde?
> Nano trente på 256k (antar på 128k)
> Mini trente på 128 km
> data?
> 10T-tokens fordelt på 3 faser
> bred → skarp → STEM tung
> Datology produserer syntetisk brannslange
> Prime Intellect holder H100-klyngene i live
> og ja
> å trene MoE på denne skalaen er smertefullt
> "ingen høflig måte å si det på," smerte
> 20T-tokens for Trinity Large
> 2048 H100s genererer syntetiske data
> 2048 B300s som trener den faktiske modellen
> (feilsøking er livsstil forresten)
> men det er her det blir gøy
> fordi når du først eier fortrening
> du eier alt oppstrøms fra "produktet"
> dataopprinnelse
> mål
> atferdsdrift
> lokal omskolering
> ekte langlivede systemer
> ikke API-som-avhengighet skjærsilden
> så hva blir det neste?
> Trinity Large
> 420B-parametere
> 13 milliarder aktive per token
> helt åpen
> målretting januar 2026
> øyeblikket hvor «American MoE» blir en greie™
> Nano + Mini er oppvarmingen
> modeller du faktisk kan bruke akkurat nå
> nedlasting
> programleder
> finjustering
> pause
> rapportere feil
> forme treningen til Large
> fellesskapsløkke låst opp
> hvis du bryr deg om åpne vekter
> eller om å ikke outsource hele stacken til black-box-laboratorier
> Trinity er i bunn og grunn hanskekastet
> tar Nano + Mini på Hugging Face
> eller kjør dem på OpenRouter
> stresstester dem
> finner sprekkene
> sender tilbakemeldingen
> hele poenget er eierskap
Jeg liker Arcee, de bygger disse modellene så du slipper å leie intelligensen din fra noen andre

27,22K
God graf
Gratulerer, prime intellekt, folkens.


Prime Intellect27. nov. 2025
Introduserer INTELLECT-3: Skalering av RL til en 100B+ MoE-modell på vår end-to-end-stack
Å oppnå topp moderne ytelse for sin størrelse innen matematikk, kode og resonnement
Bygget med de samme verktøyene vi gir deg, fra miljøer og evalueringer, RL-rammeverk, sandkasser og mer
10,06K
Topp
Rangering
Favoritter

