Ich denke, HBF ist überbewertet. In einigen Kreisen wird gesagt, dass es, wenn man eine erhebliche Softwareüberarbeitung vornimmt, nicht unbrauchbar ist, aber dass es HBM ersetzen könnte oder dass der Markt groß genug ist, ist wohl eine Illusion. Wenn man, wie hier geschrieben, fast nur liest, wird es nicht kv sein, sondern die Verzerrung oder das Gewicht des gleichen Modells, aber das wäre extrem unpraktisch. [Nachrichten] Laut Experten könnte HBF bis 2027-28 in NVIDIA-GPUs integriert werden, und der Markt könnte bis 2038 HBM übertreffen. Mit dem Anstieg der AI-Workloads beschleunigt sich die Verbreitung von High Bandwidth Flash (HBF), und Experten prognostizieren eine schnellere Kommerzialisierung als erwartet. Laut Sisa Journal deutet Professor Kim Jong-ho von KAIST, der weithin als "Vater von HBM" bekannt ist, darauf hin, dass Samsung Electronics und SanDisk planen, HBF bis Ende 2027 oder Anfang 2028 in Produkte von NVIDIA, AMD und Google zu integrieren. Wie im Bericht erwähnt, fügt Professor Kim hinzu, dass die Entwicklung von HBM über 10 Jahre dauert, während Unternehmen bereits mit dem angesammelten Prozess- und Designwissen von HBM an der Entwicklung von HBF arbeiten, was bedeutet, dass HBF viel schneller kommerzialisiert werden könnte. Darüber hinaus prognostiziert Herr Kim, dass die Akzeptanz von HBF um die Einführung von HBM6 zunehmen wird und dass der HBF-Markt um 2038 HBM übertreffen könnte. Laut Kim wird HBM6 nicht aus einem einzelnen Speichermodul bestehen, sondern mehrere Module werden wie in einem Wohnkomplex miteinander verbunden. Während DRAM-basiertes HBM an Kapazitätsgrenzen stößt, glaubt Kim, dass NAND-Stack-basiertes HBF auftauchen wird, um diese Lücke zu schließen. Die Rolle von HBF in AI-Inferenz und Systemarchitektur Zur Rolle von HBF in AI-Workloads erklärt Kim, dass die GPU während der Inferenz zunächst Variablen-Daten von HBM abruft, verarbeitet und Ausgaben generiert. Er glaubt, dass HBF in Zukunft diese Rolle übernehmen und erheblich größere Kapazitäten zur Unterstützung von Aufgaben bieten wird. HBM ist schnell, aber HBF bietet etwa das 10-fache der Kapazität. Wie im Bericht erwähnt, betont Kim, dass HBF unbegrenzte Lesezyklen unterstützt, während die Schreibzyklen auf etwa 100.000 begrenzt sind, weshalb die Software von Unternehmen wie OpenAI und Google für leseintensive Operationen optimiert werden muss. Kim fügt hinzu, dass der aktuelle Datenversorgungsprozess für GPUs einen langen Übertragungsweg umfasst, der über das Speichernetzwerk, den Datenprozessor und die GPU-Pipeline führt. In Zukunft stellt er sich eine rationalisierte Architektur vor, die direkt hinter HBM Daten verarbeiten kann. Diese Struktur, die mit HBM7 realisiert werden soll, wird auch als "Speicherfabrik" bezeichnet. Samsung und SK Hynix treiben die Entwicklung von HBF voran Wie im Bericht hervorgehoben wird, plant SK Hynix, Ende dieses Monats eine Testversion von HBF zur Demonstration zu veröffentlichen. Außerdem haben Samsung Electronics und SK Hynix ein Memorandum of Understanding (MOU) unterzeichnet, um die Standardisierung von HBF mit SanDisk voranzutreiben, und es wird auch darauf hingewiesen, dass sie derzeit ihre Bemühungen über ein gemeinsames Konsortium vorantreiben. Beide Unternehmen entwickeln aktiv HBF-Produkte und streben eine Markteinführung im Jahr 2027 an. Laut Branchenquellen, die im Bericht zitiert werden, wird geschätzt, dass HBF eine Bandbreite von über 1.638 GB/s erreichen kann, was einen erheblichen Sprung im Vergleich zu den typischen 7.000 MB/s darstellt, die über NVMe PCIe 4.0 bereitgestellt werden. In Bezug auf die Kapazität wird erwartet, dass HBF bis zu 512 GB erreicht, was HBM4s 64 GB erheblich übersteigt.