Sbagliato. Le dimensioni dei modelli diventeranno molto più grandi nel 2026 a causa di mondi di scale-up più ampi nei rack Nvidia (e anche in quelli Google TPU), passando da B200 con 1,4 TB per mondo di scale-up a GB300 con 20 TB per mondo di scale-up.
expatanon
expatanon18 mar, 03:04
Altman ha ammesso che i modelli transformer hanno raggiunto un limite. La maggior parte dei miglioramenti negli ultimi 9 mesi è attribuibile più agli strumenti attorno al modello piuttosto che ai modelli stessi. In altre parole, questa tecnologia sta maturando rapidamente senza segni di un altro balzo.
I sorprendenti investimenti nei datacenter del 2024/2025 stanno iniziando a entrare in funzione ora, con hardware molto migliore rispetto ai modelli di attuale generazione ottimizzati per l'inferenza.
103