Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Ja, ich arbeite an der Architektur, die sowohl auf ICMS als auch auf Enfabrica basiert. Es ist eine Art Mellanox-Deal. Aber NVLink wäre um GPU, CPU und DPU so überlastet. Nvidia muss den Datenaustausch für kv und Gewicht vereinfachen.

ZephyrVor 8 Stunden
Die Einführung von HBF wird nicht stattfinden
Schau dir Nvidias ICMS- und Enfabrica-Deal an, um herauszufinden, warum
16
Ich denke, HBF ist überbewertet.
In einigen Kreisen wird gesagt, dass es, wenn man eine erhebliche Softwareüberarbeitung vornimmt, nicht unbrauchbar ist, aber dass es HBM ersetzen könnte oder dass der Markt groß genug ist, ist wohl eine Illusion.
Wenn man, wie hier geschrieben, fast nur liest, wird es nicht kv sein, sondern die Verzerrung oder das Gewicht des gleichen Modells, aber das wäre extrem unpraktisch.
[Nachrichten] Laut Experten könnte HBF bis 2027-28 in NVIDIA-GPUs integriert werden, und der Markt könnte bis 2038 HBM übertreffen.
Mit dem Anstieg der AI-Workloads beschleunigt sich die Verbreitung von High Bandwidth Flash (HBF), und Experten prognostizieren eine schnellere Kommerzialisierung als erwartet. Laut Sisa Journal deutet Professor Kim Jong-ho von KAIST, der weithin als "Vater von HBM" bekannt ist, darauf hin, dass Samsung Electronics und SanDisk planen, HBF bis Ende 2027 oder Anfang 2028 in Produkte von NVIDIA, AMD und Google zu integrieren. Wie im Bericht erwähnt, fügt Professor Kim hinzu, dass die Entwicklung von HBM über 10 Jahre dauert, während Unternehmen bereits mit dem angesammelten Prozess- und Designwissen von HBM an der Entwicklung von HBF arbeiten, was bedeutet, dass HBF viel schneller kommerzialisiert werden könnte.
Darüber hinaus prognostiziert Herr Kim, dass die Akzeptanz von HBF um die Einführung von HBM6 zunehmen wird und dass der HBF-Markt um 2038 HBM übertreffen könnte. Laut Kim wird HBM6 nicht aus einem einzelnen Speichermodul bestehen, sondern mehrere Module werden wie in einem Wohnkomplex miteinander verbunden. Während DRAM-basiertes HBM an Kapazitätsgrenzen stößt, glaubt Kim, dass NAND-Stack-basiertes HBF auftauchen wird, um diese Lücke zu schließen.
Die Rolle von HBF in AI-Inferenz und Systemarchitektur
Zur Rolle von HBF in AI-Workloads erklärt Kim, dass die GPU während der Inferenz zunächst Variablen-Daten von HBM abruft, verarbeitet und Ausgaben generiert. Er glaubt, dass HBF in Zukunft diese Rolle übernehmen und erheblich größere Kapazitäten zur Unterstützung von Aufgaben bieten wird. HBM ist schnell, aber HBF bietet etwa das 10-fache der Kapazität. Wie im Bericht erwähnt, betont Kim, dass HBF unbegrenzte Lesezyklen unterstützt, während die Schreibzyklen auf etwa 100.000 begrenzt sind, weshalb die Software von Unternehmen wie OpenAI und Google für leseintensive Operationen optimiert werden muss.
Kim fügt hinzu, dass der aktuelle Datenversorgungsprozess für GPUs einen langen Übertragungsweg umfasst, der über das Speichernetzwerk, den Datenprozessor und die GPU-Pipeline führt. In Zukunft stellt er sich eine rationalisierte Architektur vor, die direkt hinter HBM Daten verarbeiten kann. Diese Struktur, die mit HBM7 realisiert werden soll, wird auch als "Speicherfabrik" bezeichnet.
Samsung und SK Hynix treiben die Entwicklung von HBF voran
Wie im Bericht hervorgehoben wird, plant SK Hynix, Ende dieses Monats eine Testversion von HBF zur Demonstration zu veröffentlichen. Außerdem haben Samsung Electronics und SK Hynix ein Memorandum of Understanding (MOU) unterzeichnet, um die Standardisierung von HBF mit SanDisk voranzutreiben, und es wird auch darauf hingewiesen, dass sie derzeit ihre Bemühungen über ein gemeinsames Konsortium vorantreiben. Beide Unternehmen entwickeln aktiv HBF-Produkte und streben eine Markteinführung im Jahr 2027 an.
Laut Branchenquellen, die im Bericht zitiert werden, wird geschätzt, dass HBF eine Bandbreite von über 1.638 GB/s erreichen kann, was einen erheblichen Sprung im Vergleich zu den typischen 7.000 MB/s darstellt, die über NVMe PCIe 4.0 bereitgestellt werden. In Bezug auf die Kapazität wird erwartet, dass HBF bis zu 512 GB erreicht, was HBM4s 64 GB erheblich übersteigt.
13
Kupferfolie, Bohrpit
Upgrade mit Google TPU
M9 Grau Panasonic ist stark
Die TPU von Google führt die CCL (Chip Cl) Technologie an, und die Hersteller von Bohrern begrüßen das Upgrade.
Während sich die ASIC-Plattform weiterhin in Richtung höherer Anforderungen an Rechenleistung und Bandbreite entwickelt, tritt Googles selbstentwickelter TPU in eine neue Phase der Spezifikations-Upgrades ein. Laut Informationen aus der Lieferkette plant Google, ab 2026 die Anzahl der PCB-Schichten und die Qualität der CCL-Materialien der nächsten Generation TPU-Plattform umfassend zu erhöhen, was den CCL-Herstellern in Japan und Taiwan die Möglichkeit eines Spezifikations-Upgrades bieten wird. Mit der Erhöhung der Schichtanzahl der Leiterplatten und der Komplexität der Materialien wird sich auch die Nachfrage nach Bohrern im Fertigungsprozess ändern.
Die CCL-Versorgung für Googles TPU-Projekt wird derzeit hauptsächlich von Panasonic in Japan und Taikoo Technology in Taiwan unterstützt. Rückblickend auf die TPU V6e Generation (Ghost-Serie) hatte Panasonic mit einem Mangel an niedrig-dielektrischen Glasfasern zu kämpfen, was dazu führte, dass Taikoo Technology in die Lieferkette eintrat und einen gewissen Marktanteil gewann. Schätzungen aus der Lieferkette deuten darauf hin, dass Panasonic im neuen TPU-Projekt etwa 70 % und Taikoo Technology etwa 30 % der Versorgung übernehmen wird, was auf eine Rückkehr zu einer stabileren Versorgungsstruktur hindeutet.
Basierend auf dem aktuellen Design behalten die Ghost-Serie GhostLite und GhostFish eine konservative Konfiguration mit etwa 22-24 Schichten PCB und M7-Grad CCL bei. Nach 2026 wird die TPU-Plattform jedoch auf ZebraFish und SunFish umsteigen, was zu erheblichen Verbesserungen der Gesamtspezifikationen führen wird. Laut Informationen aus der Lieferkette wird die neue Plattform CCL der Klassen M8/M9 verwenden, wobei die Anzahl der PCB-Schichten auf jeweils 36 und 44 erhöht wird, um den Anforderungen an höhere Bandbreite und Stromverbrauch durch den Einsatz von höherwertigen Low Dk Glasfasern und HVLP4 Kupferfolie gerecht zu werden.
Mit der Erhöhung der Anzahl der PCB-Schichten und der Materialqualität steigt auch der Druck auf den Fertigungsprozess schnell an. Branchenvertreter berichten, dass die Nachfrage nach Bohrern für High-End AI-Boards deutlich schneller wächst als die Wachstumsrate der PCB-Produktion. Traditionell betrug die Nutzungsdauer eines Bohrers etwa 3.000 Einsätze, aber mit der Einführung von High-End AI-Boards ist diese Lebensdauer auf unter 800 Einsätze gesunken. In Zukunft könnte die Einführung von M9-Interposer-Boards und ASIC-Motherboards die Nutzungsdauer eines Bohrers weiter reduzieren.
Branchenanalysten glauben, dass die Umstellung von Googles TPU-Designs nach 2026 bedeutet, dass ASIC in eine neue Phase von "hoher Schichtanzahl, hohen Materialanforderungen und hohem Mehrwert" eingetreten ist. Dies wird sich nicht nur im durchschnittlichen Verkaufspreis (ASP) von High-End CCL- und PCB-Produkten widerspiegeln, sondern auch Auswirkungen auf wichtige upstream Lieferketten wie niedrig-dielektrische Glasfasern, High-End HVLP Kupferfolie und Bohrer haben. Die Lieferkette passt ihre Konfigurationen im Voraus an, um die Einführung der neuen Plattform zu unterstützen.
18
Top
Ranking
Favoriten
