🚀Wir stellen unsere neue Arbeit vor: Konfigurations-zu-Leistungs-Skalierungsgesetz mit neuronalen Ansatz. Ein Sprachmodell, das auf großen Vortrainingsprotokollen trainiert wurde, kann genau vorhersagen, wie Trainingskonfigurationen die Vortrainingsleistung beeinflussen und auf Durchläufe mit 10x mehr Rechenleistung verallgemeinern.