🚨 NVIDIA teki vain mahdottoman. He kouluttivat 12B-parametrin kielimallin 10 biljoonalle tokenille kokonaan 4-bittisellä tarkkuudella. Sitä kutsutaan NVFP4:ksi, ja se saattaa määritellä uudelleen, miten rajan tekoälymalleja koulutetaan. Tästä syystä tällä on merkitystä: • NVFP4 tarjoaa 2–3 × nopeamman matemaattisen suorituskyvyn ja 50 % vähemmän muistia verrattuna FP8:aan •Tarkkuus? Käytännössä identtiset. (MMLU-Pro: FP8 = 62,62 %, NVFP4 = 62,58 %) • Vakausongelmia? Ratkaistu käyttämällä satunnaisia Hadamard-muunnoksia, stokastista pyöristystä ja 2D-skaalausta • Täysin NVIDIA Blackwell GPU:illa koulutettu ensimmäinen 4-bittinen toimii vakaasti 10T-tokeneilla Tämä on ensimmäinen onnistunut esittely laajamittaisesta 4-bittisestä esikoulutuksesta tarkkuuden heikkenemättä. Seuraavan sukupolven rajamallit ovat nopeampia, halvempia ja vihreämpiä ilman kompromisseja.