今日は、NvidiaのNo.3.16次世代GPUチップであるファインマンを一晩で推理し、Nvidiaの本当の意図を分析し、上司たちへのレポートをまとめました。 詳細レポート:「AIコンピューティングパワーの究極の変化 - ファインマンアーキテクチャにおける「光、ストレージ、コンピューティング」のパラダイムシフト」 公開日:2026年3月1日 主要ターゲット:$NVIDIA、$SKハイニックス、#Samsung、$TSM TSMC、$AVGOブロードコム、#中际旭创、#新易盛 投資テーマ:「チッププラグイン」から「システムインパッケージ(SiP)」への次元削減 報告書概要:物理学の限界を超える三つの次元 2026年のGTCカンファレンスの文脈で、NvidiaはRubin(2026年)からFeynman(2028年)までの進化の道筋を正式に定めました。 その核心的な戦略的意図は非常に明確です。3Dスタッキング(SoIC)とシリコンフォトニクス(CPO)技術を通じて、もともと産業チェーンの上流および下流に属していた利益(ストレージ、ネットワーク)をGPUパッケージに強制的に「吸い込み」、チップサプライヤーから「フルスタックシステム契約者」へと変革するのです。 1. NVIDIA GPUの進化の道筋:「ミニチュア化」から「空間スタッキング」へ Nvidiaのアーキテクチャ進化は物理ゲームの「ポストムーア時代」に突入しています。 Blackwell(2025年):主に1.6Tプラグ可能な光トランシーバーに適応された、前世代の2.5Dパッケージの頂点。 ルービン(2026年):HBM4の最初の年。 3nm強化プロセスの導入、ベースダイでの初の論理統合の試み。 ファインマン(2028年):究極の形態。 TSMC A16(1.6nm)プロセスとバックサイドパワーデリバリー(BSPDN)を使用しています。 コアイノベーション:GPUの上に垂直にスタックSRAM(LPUが故障)する。 役割の変更:GPUはもはや単なる計算ユニットではなく、独自の「高速道路(CPO)」と「大型燃料タンク(3D SRAM)」を持つ独立したシステムです。 2. ストレージ(HBMおよびSRAM)進化経路:「プラグイン」から「共生」へ 1. 技術の進化と役割の変化 HBM4(2026/2027年版):インターフェースビット幅が1024ビットから2048ビットに倍増しました。 最も重要な変更点は、パワーのベースダイへの移行です。 蓄電プラント(ハイニックス/サムスン)は、5nmレベルで論理ベースを製造するために$TSM TSMCと深く結びついている必要があります。 3D SRAM(2028年):ファインマンアーキテクチャがLPUの死を導入。 この高帯域幅(80〜100 TB/s)のキャッシュ層はリアルタイム計算データ交換の70%を占め、HBMは「頻繁にアクセスされるメモリ」から「高容量バックグラウンドタンク」へと劣化します。 2. 需給計算:40%のGPU成長を持つエクサバイトレベルのブラックホール GPUの前年複合成長率40%で、単一カードのHBM容量は倍増しました(192G、192G、288G、576G): 2026年の需要は3.63EB、供給は2.8EBで、ギャップは22.9%です ...