Hôm nay đã diễn ra một buổi diễn tập suốt đêm về GPU thế hệ tiếp theo Feynman của NVIDIA vào ngày 3.16, tôi đã phân tích được ý định thực sự của NVIDIA và tổng hợp một báo cáo cho các ông chủ. Báo cáo sâu: "Cuộc cách mạng cuối cùng của sức mạnh AI - Chuyển đổi mô hình 'Ánh sáng, Lưu trữ, Tính toán' dưới kiến trúc Feynman" Ngày phát hành: 1 tháng 3 năm 2026 Đối tượng chính: $NVIDIA, $SK Hynix, #Samsung, $TSM 台积电, $AVGO 博通, #中际旭创, #新易盛 Chủ đề đầu tư: Từ "gắn chip" đến "đóng gói cấp hệ thống (SiP)". Tóm tắt báo cáo: Phá vỡ ba chiều giới hạn vật lý. Trong bối cảnh hội nghị GTC 2026, NVIDIA đã chính thức xác lập con đường tiến hóa từ Rubin (2026) đến Feynman (2028). Ý định chiến lược cốt lõi của họ đã rất rõ ràng: thông qua công nghệ xếp chồng 3D (SoIC) và quang silicon (CPO), buộc lợi nhuận thuộc về chuỗi cung ứng (lưu trữ, mạng) phải "hút" vào bên trong đóng gói GPU, thực hiện chuyển đổi từ nhà cung cấp chip sang "nhà thầu hệ thống toàn diện". I. Con đường tiến hóa GPU của NVIDIA: từ "thu nhỏ" sang "xếp chồng không gian" Sự tiến hóa kiến trúc của NVIDIA đã bước vào cuộc chơi vật lý của "thời kỳ hậu Moore": Blackwell (2025): Thế hệ cuối cùng của đóng gói 2.5D, chủ yếu tương thích với mô-đun quang có thể cắm 1.6T. Rubin (2026): Năm đầu tiên của HBM4. Giới thiệu quy trình 3nm nâng cao, lần đầu tiên thử nghiệm tích hợp logic trên Base Die (đế). Feynman (2028): Hình thái cuối cùng. Sử dụng quy trình A16 (1.6nm) của TSMC và cung cấp điện từ mặt sau (BSPDN). Đổi mới cốt lõi: Xếp chồng SRAM (LPU Dies) theo chiều dọc lên trên GPU. Thay đổi vai trò: GPU không còn chỉ là đơn vị tính toán, mà là một hệ thống độc lập tự mang "đường cao tốc (CPO)" và "bình xăng siêu lớn (3D SRAM)". II. Con đường tiến hóa lưu trữ (HBM & SRAM): từ "gắn ngoài" đến "cộng sinh" 1. Tiến bộ công nghệ và thay đổi vai trò HBM4 (2026/2027): Băng thông giao diện từ 1024-bit tăng gấp đôi lên 2048-bit. Thay đổi quan trọng nhất là quyền lực của Base Die (đế logic) được chuyển giao. Các nhà sản xuất lưu trữ (Hynix/Samsung) phải gắn bó sâu sắc với $TSM 台积电, sản xuất đế logic cấp 5nm. 3D SRAM (2028): Kiến trúc Feynman giới thiệu LPU Dies. Lớp bộ nhớ băng thông cao (80-100 TB/s) này sẽ đảm nhận 70% dữ liệu tính toán thời gian thực, dẫn đến HBM từ "bộ nhớ truy cập thường xuyên" suy giảm thành "bình xăng dung lượng lớn". 2. Tính toán cung cầu: Hố đen cấp EB dưới mức tăng trưởng 40% GPU Theo tỷ lệ tăng trưởng hàng năm 40% của GPU, cộng với việc tăng gấp đôi dung lượng HBM trên mỗi thẻ (192G \rightarrow 288G \rightarrow 576G): Nhu cầu năm 2026 là 3.63EB, cung cấp 2.8EB, thiếu hụt 22.9% ...