Je pense que HBF est beaucoup trop surestimé. Dans une certaine mesure, même si des modifications logicielles considérables sont apportées, cela pourrait ne pas être inutilisable, mais dire qu'il pourrait remplacer HBM ou que le marché est vaste, c'est de la pure imagination. Comme il est écrit ici, si cela ne sert qu'à lire presque, cela deviendra des biais ou des poids du même modèle au lieu de kv, mais dans ce cas, ce serait vraiment peu pratique. [Actualités] Selon des experts, HBF pourrait être intégré aux GPU NVIDIA d'ici 2027-2028, et le marché pourrait dépasser HBM d'ici 2038. Avec l'augmentation des charges de travail en IA, l'adoption de la mémoire flash à large bande passante (HBF) s'accélère, et les experts prévoient une commercialisation plus rapide que prévu. Selon le Sisa Journal, le professeur Kim Jong-ho de KAIST, largement connu comme le "père de HBM", a suggéré que Samsung Electronics et SanDisk prévoient d'intégrer HBF dans les produits de NVIDIA, AMD et Google d'ici la fin 2027 ou le début 2028. Comme le souligne le rapport, le professeur Kim ajoute que le développement de HBM prend plus de 10 ans, tandis que les entreprises commencent déjà à utiliser l'expertise accumulée en matière de processus et de conception de HBM pour développer HBF, ce qui pourrait permettre une commercialisation beaucoup plus rapide. De plus, M. Kim prévoit qu'avec l'introduction de HBM6, l'adoption de HBF s'élargira, et que d'ici 2038, le marché de HBF pourrait dépasser celui de HBM. Selon M. Kim, HBM6 ne sera pas un seul empilement de mémoire, mais plusieurs empilements interconnectés comme un immeuble résidentiel. Alors que HBM basé sur DRAM fait face à des limites de capacité, M. Kim pense que HBF de type empilement NAND émergera pour combler cette lacune. Le rôle de HBF dans l'inférence IA et l'architecture système Concernant le rôle de HBF dans les charges de travail IA, M. Kim explique que le GPU obtient d'abord les données variables à partir de HBM pendant l'inférence, les traite et génère des sorties. Il pense que HBF assumera ce rôle à l'avenir et fournira une capacité beaucoup plus grande pour soutenir les tâches. HBM est rapide, mais HBF offre environ 10 fois plus de capacité. Comme le souligne le rapport, M. Kim insiste sur le fait que HBF prend en charge un nombre illimité de cycles de lecture, tandis que les cycles d'écriture sont limités à environ 100 000, ce qui signifie que les logiciels des entreprises comme OpenAI et Google doivent être optimisés pour des opérations à forte intensité de lecture. M. Kim ajoute également que le processus d'approvisionnement en données pour les GPU actuels implique un long chemin de transmission à travers un réseau de stockage, un processeur de données et le pipeline GPU. À l'avenir, il envisage une architecture plus rationalisée qui pourrait traiter directement les données derrière HBM. Cette structure, qui devrait être réalisée avec HBM7, est parfois appelée "usine de mémoire". Samsung et SK Hynix poussent le développement de HBF Comme le souligne le rapport, SK Hynix prévoit de dévoiler une version d'essai de HBF à des fins de démonstration plus tard ce mois-ci. De plus, Samsung Electronics et SK Hynix ont signé un protocole d'accord (MOU) pour promouvoir la normalisation de HBF avec SanDisk, et il est également noté dans le rapport qu'ils avancent actuellement leurs efforts par le biais d'un consortium commun. Les deux entreprises développent activement des produits HBF et visent un lancement sur le marché en 2027. Selon des sources de l'industrie citées dans le rapport, HBF est estimé capable d'atteindre une bande passante de plus de 1 638 Go/s, ce qui représente un bond significatif par rapport aux SSD standard qui offrent généralement environ 7 000 Mo/s via NVMe PCIe 4.0. En termes de capacité, HBF devrait atteindre jusqu'à 512 Go, dépassant largement les 64 Go de HBM4.