Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NVIDIA gjorde bare det umulige.
De trente en språkmodell med 12B-parameter på 10 billioner tokens helt i 4-bits presisjon.
Det kalles NVFP4, og det kan omdefinere hvordan grenseverdige AI-modeller trenes.
Her er grunnen til at dette er viktig:
• NVFP4 leverer 2–3 × raskere matematisk gjennomstrømning og 50 % mindre minne sammenlignet med FP8
•Nøyaktighet? Praktisk talt identisk. (MMLU-Pro: FP8 = 62,62 %, NVFP4 = 62,58 %)
• Stabilitetsproblemer? Løst ved hjelp av tilfeldige Hadamard-transformasjoner, stokastisk avrunding og 2D-skalering
• Opplært utelukkende på NVIDIA Blackwell GPUer, den første 4-biters kjøringen stabil på tvers av 10T-tokens
Dette er den første vellykkede demonstrasjonen av storskala 4-bits forhåndstrening uten å miste nøyaktighet.
Neste generasjon frontier-modeller vil være raskere, billigere og grønnere uten kompromisser.

Topp
Rangering
Favoritter
