トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
はい、ICMSとEnfabricaの両方をベースにしたアーキテクチャを深く掘り下げています。これは一種のメラノックスの取引です。しかしNVLinkはGPU、CPU、DPUの周りで非常に混雑してしまいます。NvidiaはKVとウェイトのデータパスを簡素化する必要があります。

Zephyr13時間前
HBF導入は起こりません
なぜかはNvidiaのICMSとEnfabricaの契約を調べてみてください
47
HBFは過大評価されていると思います
場合によっては、ソフトウェアを大幅に改変しても使いこなせるわけではありませんが、HBMに取って代わるという幻想や市場規模が大きいという幻想に過ぎません
ここに書かれているように、ほぼここで読み込まれているなら、それはKVではなく同じモデルのバイアスと重さになりますが、それは非常に使い物になりません
専門家によると、HBFは2027~28年までにNVIDIA GPUに導入される可能性があり、2038年までに市場がHBMを上回る可能性があるとされています
AIワークロードの増加に伴い、高帯域幅フラッシュ(HBF)の採用が加速しており、専門家は予想よりも早い商業化を予測しています。 Sisa Journalによると、「HBMの父」として知られるKAISTのキム・ジョンホ教授は、サムスン電子とサンディスクが2027年末か2028年初頭までにNVIDIA、AMD、Googleの製品にHBFを統合する計画を示唆しています。 報告書にもあるように、キムはHBMの開発に10年以上かかるものの、企業がすでにHBMで蓄積されたプロセスと設計の専門知識を活用してHBFを開発しているため、より早く商業化が可能であると付け加えています。
さらに、キムはHBM6導入頃にHBFの普及が拡大し、HBF市場が2038年頃にHBMを上回る可能性があると予測しています。 キムによると、HBM6は単一のメモリスタックではなく、複数のスタックがアパートのように相互接続されているとのことです。 DRAMベースのHBMが容量制限に直面する中、キム氏はHBFがNANDスタックの形でそのギャップを埋めると考えています。
AI推論およびシステムアーキテクチャにおけるHBFの役割
AIワークロードにおけるHBFの役割について、キム氏はGPUが推論中にまずHBMから可変データを取得し、それを処理し、出力を生成すると説明しました。 キム氏は、将来的にHBFがこの役割を引き継ぎ、より大きな能力を提供できると信じています。 HBMは速いのに対し、HBFは約10倍の容量を提供します。 報告書にもあるように、キムはHBFは無制限の読み取りサイクルをサポートしていますが、書き込みサイクルは約10万回に制限されているため、OpenAIやGoogleのような企業のソフトウェアは読み取り集約型の運用に最適化されていると強調しています。
キム氏はさらに、現在のGPUへのデータ入力プロセスは、ストレージネットワーク、データプロセッサ、GPUパイプラインを経由する長い伝送経路を含んでいると付け加えました。 将来的には、HBMの背後でデータを直接処理できる、より効率的なアーキテクチャを目指しています。 この構造はHBM7で実装されることが予想されており、時に「メモリファクトリー」とも呼ばれます。
サムスンとSKハイニックスはHBFの開発を推進しています
報告書で強調されているように、SKハイニックスは今月後半にHBFの試行版をデモ向けにリリースする予定です。 また、サムスン電子とSKハイニックスがサンディスクと覚書(MOU)を締結し、HBF標準化を推進し、現在は共同コンソーシアムを通じてこの取り組みに取り組んでいることも指摘しています。 両社とも積極的にHBF製品を開発しており、2027年の発売を目指しています。
レポートで引用された業界関係者によると、HBFは1,638GB/sを超える帯域幅を提供できると推定されており、通常NVMe PCIe 4.0で約7,000MB/sを提供する標準SSDと比べて大きな飛躍です。 容量に関しては、HBFは最大512GBに達すると予想されており、HBM4の64GBを大幅に上回る見込みです。
45
銅箔、ドリルピット
Google TPUでアップグレード
M9グレーパナソニックつえええ
GoogleのTPUはCCL(Chip Cl)技術の先駆けであり、ドリルビットメーカーはアップグレードを歓迎しています。
ASICプラットフォームがより高い計算密度と帯域幅の要件へ進化し続ける中、Googleが独自開発したTPUは仕様のアップグレードの新たな段階に入っています。 サプライチェーン関係者によると、Googleは2026年から次世代TPUプラットフォーム向けにPCB層数とCCL材料グレードを大幅に増やし、日本と台湾のCCLメーカーに仕様アップグレードの機会をもたらす計画です。 基材層数が増え材料の難易度が上がるにつれて、製造プロセスにおけるドリルビットの需要構造も変化します。
現在、GoogleのTPUプロジェクト向けCCL供給は主に日本のパナソニックと台湾のタイクーテクノロジーによって支えられています。 TPU V6e世代(ゴーストシリーズ)を振り返ると、パナソニックは低誘電率定数ガラス繊維の供給不足に悩まされ、スワイヤー・テクノロジーがサプライチェーンに参入し一定のシェアを獲得しました。 サプライチェーンの推計によると、新世代TPUプロジェクトはパナソニックが約70%、スワイヤーが約30%で供給され、より安定した供給構造への回帰が示唆されています。
現在の設計に基づき、GhostLiteおよびGhostFishのGhostFishシリーズは、約22~24層のPCBとM7グレードCCLの保守的な構成を維持しています。 しかし2026年以降、TPUプラットフォームはZebraFishとSunFishに移行し、全体の仕様が大幅に向上します。 サプライチェーン関係者によると、新プラットフォームはM8/M9グレードのCCLを採用し、PCB層数はそれぞれ36層と44層に増加し、より高品質な低Dk光ファイバーとHVLP4銅箔を採用することで、より高い帯域幅と消費電力の要求を満たすことが期待されています。
PCB層数や材料グレードが増えるにつれて、製造プロセスへの圧力も増大します。 業界関係者によると、高級AI基板用のドリルビットの需要は、PCB生産価値の成長率を大きく上回るペースで増加しています。 以前は1本のドリルビットが約3,000回使われていましたが、ハイエンドAIボードの普及により寿命は800回未満に急激に短縮されました。 将来的には、M9レベルのインターポーザーボードやASICマザーボードが導入されれば、1本のドリルビットの使用回数がさらに減る可能性があります。
業界アナリストは、2026年以降のGoogleのTPU設計変革は、ASICが「高いフロアナンバー、高い材料仕様、高い付加価値」という新たな段階に入ったことを意味すると考えています。 これは高級CCLおよびPCB製品の平均販売価格(ASP)に反映されるだけでなく、低誘電体グラスファイバー、高級HVLP銅箔、ドリルビットなどの主要な上流サプライチェーンにも波及します。 サプライチェーンは新しいプラットフォームの導入に対応するため、事前に構成を調整しています。
45
トップ
ランキング
お気に入り
