Die Skalierung wissenschaftlicher Weltmodelle erfordert die gemeinsame Gestaltung von Architekturen, Trainingszielen und Numerik. Heute teilen wir die ersten Beiträge in unserer Serie über Low-Precision-Vortraining, beginnend mit NVIDIAs NVFP4-Rezept für stabiles 4-Bit-Training. Teil 1: Teil 2: Wir behandeln die Grundlagen der Gleitkommazahlen, Heuristiken, benutzerdefinierte CUDA-Kerne und Stabilisierungstechniken. Zukünftige Beiträge werden benutzerdefinierte Rezepte und Ergebnisse zu hybriden Architekturen behandeln.