Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Vâng, tôi đang tìm hiểu kiến trúc dựa trên cả ICMS và Enfabrica. Đây là một loại thỏa thuận Mellanox. Nhưng NVLink sẽ bị tắc nghẽn xung quanh GPU, CPU và DPU. Nvidia cần đơn giản hóa việc truyền dữ liệu cho kv và trọng số.

Zephyr13 giờ trước
Giới thiệu HBF sẽ không diễn ra
Hãy xem xét thỏa thuận ICMS và Enfabrica của Nvidia để tìm hiểu lý do tại sao
45
Tôi nghĩ HBF bị đánh giá quá cao
Ở một số nơi, nếu thực hiện một số sửa đổi phần mềm đáng kể, nó có thể không phải là không thể sử dụng, nhưng việc thay thế HBM hay quy mô thị trường lớn hơn là điều không tưởng
Như đã viết ở đây, nếu chỉ đọc gần như không có gì khác ngoài việc đó, thì nó sẽ trở thành độ thiên lệch và trọng số của cùng một mô hình chứ không phải kv, nhưng như vậy thì sẽ rất khó sử dụng
[Tin tức] Theo các chuyên gia, HBF có khả năng được tích hợp vào GPU NVIDIA vào năm 2027-28, và thị trường có thể vượt qua HBM vào năm 2038
Với sự gia tăng khối lượng công việc AI, việc phổ biến Flash băng thông cao (HBF) đang tăng tốc, và các chuyên gia dự đoán rằng việc thương mại hóa sẽ diễn ra sớm hơn dự kiến. Theo Sisa Journal, giáo sư Kim Jong-ho của KAIST, người được biết đến rộng rãi với danh hiệu "cha đẻ của HBM", đã gợi ý rằng Samsung Electronics và SanDisk có kế hoạch tích hợp HBF vào các sản phẩm của NVIDIA, AMD và Google vào cuối năm 2027 hoặc đầu năm 2028. Như báo cáo đã chỉ ra, giáo sư Kim cho biết việc phát triển HBM mất hơn 10 năm, trong khi các công ty đã bắt đầu phát triển HBF bằng cách tận dụng chuyên môn về quy trình và thiết kế đã tích lũy từ HBM, do đó HBF có khả năng được thương mại hóa nhanh hơn nhiều.
Hơn nữa, ông Kim dự đoán rằng việc áp dụng HBF sẽ mở rộng vào khoảng thời gian ra mắt HBM6, và vào khoảng năm 2038, thị trường HBF có thể vượt qua HBM. Theo ông Kim, HBM6 không phải là một ngăn xếp bộ nhớ đơn lẻ mà là nhiều ngăn xếp được kết nối với nhau như một khu chung cư. Khi HBM dựa trên DRAM đối mặt với giới hạn dung lượng, ông Kim cho rằng HBF dạng ngăn xếp NAND sẽ xuất hiện để lấp đầy khoảng trống đó.
Vai trò của HBF trong suy diễn AI và kiến trúc hệ thống
Về vai trò của HBF trong khối lượng công việc AI, ông Kim giải thích rằng GPU sẽ lấy dữ liệu biến từ HBM trong quá trình suy diễn, xử lý và tạo ra đầu ra. Ông Kim cho rằng trong tương lai HBF sẽ đảm nhận vai trò này và cung cấp dung lượng lớn hơn nhiều để hỗ trợ các tác vụ. HBM nhanh nhưng HBF cung cấp dung lượng gấp khoảng 10 lần. Như báo cáo đã chỉ ra, ông Kim nhấn mạnh rằng HBF hỗ trợ chu kỳ đọc không giới hạn, trong khi chu kỳ ghi bị giới hạn ở khoảng 100.000 lần, do đó phần mềm của các công ty như OpenAI và Google cần được tối ưu hóa cho các thao tác tập trung vào đọc.
Ông Kim cũng cho biết quy trình cung cấp dữ liệu cho GPU hiện tại bao gồm một mạng lưu trữ, bộ xử lý dữ liệu và một đường truyền dài qua pipeline GPU. Trong tương lai, ông hình dung một kiến trúc được hợp lý hóa có thể xử lý dữ liệu trực tiếp phía sau HBM. Cấu trúc này, dự kiến sẽ được thực hiện trong HBM7, cũng được gọi là "nhà máy bộ nhớ".
Samsung và SK Hynix thúc đẩy phát triển HBF
Như báo cáo đã nhấn mạnh, SK Hynix dự kiến sẽ công bố phiên bản thử nghiệm HBF vào cuối tháng này. Ngoài ra, Samsung Electronics và SK Hynix đã ký một biên bản ghi nhớ (MOU) để thúc đẩy tiêu chuẩn hóa HBF với SanDisk, và hiện đang tiến hành nỗ lực đó thông qua một liên minh hợp tác. Cả hai công ty đang tích cực phát triển sản phẩm HBF và nhắm đến việc ra mắt thị trường vào năm 2027.
Theo các nguồn trong ngành được trích dẫn trong báo cáo, HBF được ước tính có thể đạt băng thông vượt quá 1.638GB/giây, điều này là một bước nhảy vọt lớn so với SSD tiêu chuẩn cung cấp khoảng 7.000MB/giây qua NVMe PCIe 4.0. Về dung lượng, HBF dự kiến sẽ đạt tối đa 512GB, vượt xa 64GB của HBM4.
44
Bạc đồng, lỗ khoan
Nâng cấp bằng Google TPU
M9 màu xám Panasonic thật tuyệt vời
TPU của Google dẫn đầu công nghệ CCL (Chip Cl) và các nhà sản xuất mũi khoan hoan nghênh sự nâng cấp này.
Khi nền tảng ASIC tiếp tục phát triển để đáp ứng các yêu cầu về mật độ tính toán và băng thông cao hơn, TPU do Google phát triển đã bước vào giai đoạn nâng cấp thông số kỹ thuật mới. Theo thông tin từ chuỗi cung ứng, Google dự kiến sẽ nâng cấp toàn diện số lớp PCB và cấp độ vật liệu CCL của nền tảng TPU thế hệ tiếp theo từ năm 2026, mang lại cơ hội nâng cấp thông số kỹ thuật cho các nhà sản xuất CCL tại Nhật Bản và Đài Loan. Sự gia tăng số lớp bảng mạch và độ khó của vật liệu sẽ làm thay đổi cấu trúc nhu cầu về mũi khoan trong quy trình sản xuất.
Nguồn cung CCL cho dự án TPU của Google hiện chủ yếu được hỗ trợ bởi Panasonic của Nhật Bản và Taikoo Technology của Đài Loan. Nhìn lại thế hệ TPU V6e (dòng Ghost), Panasonic đã gặp phải tình trạng thiếu hụt sợi thủy tinh có độ điện môi thấp, và Taikoo Technology đã tham gia vào chuỗi cung ứng, chiếm được một phần thị trường nhất định. Theo ước tính của chuỗi cung ứng, trong dự án TPU thế hệ mới, Panasonic sẽ cung cấp khoảng 70%, trong khi Taikoo Technology sẽ cung cấp khoảng 30%, cho thấy sự trở lại của một cấu trúc cung cấp ổn định hơn.
Dựa trên thiết kế hiện tại, GhostLite và GhostFish của dòng Ghost duy trì cấu hình bảo thủ với khoảng 22-24 lớp PCB và CCL cấp M7. Tuy nhiên, sau năm 2026, nền tảng TPU sẽ chuyển sang ZebraFish và SunFish, với thông số kỹ thuật tổng thể được cải thiện đáng kể. Theo thông tin từ chuỗi cung ứng, nền tảng mới sẽ áp dụng CCL cấp M8/M9, số lớp PCB sẽ tăng lên lần lượt là 36 lớp và 44 lớp, và sẽ sử dụng sợi quang Low Dk và bạc đồng HVLP4 cấp cao hơn để đáp ứng các yêu cầu về băng thông và tiêu thụ điện năng cao hơn.
Với sự gia tăng số lớp PCB và cấp độ vật liệu, áp lực lên quy trình sản xuất cũng đang gia tăng nhanh chóng. Theo các chuyên gia trong ngành, nhu cầu về mũi khoan cho bảng AI cao cấp đang tăng lên với tốc độ vượt xa tỷ lệ tăng trưởng sản xuất PCB. Trước đây, số lần sử dụng của một mũi khoan là khoảng 3.000 lần, nhưng với việc áp dụng bảng AI cao cấp, tuổi thọ của nó đã giảm mạnh xuống dưới 800 lần. Trong tương lai, nếu các bảng interposer cấp M9 và bảng mẹ ASIC được đưa vào sử dụng, số lần sử dụng của một mũi khoan có thể sẽ giảm hơn nữa.
Các nhà phân tích trong ngành cho rằng, sự chuyển đổi thiết kế TPU của Google sau năm 2026 có nghĩa là ASIC đã bước vào một giai đoạn mới với "số lớp cao, thông số vật liệu cao, giá trị gia tăng cao". Điều này không chỉ phản ánh trong giá bán trung bình (ASP) của các sản phẩm CCL và PCB cao cấp mà còn ảnh hưởng đến các chuỗi cung ứng thượng nguồn chính như sợi thủy tinh có độ điện môi thấp, bạc đồng HVLP cao cấp và mũi khoan. Chuỗi cung ứng đang điều chỉnh cấu hình trước để đáp ứng việc áp dụng nền tảng mới.
44
Hàng đầu
Thứ hạng
Yêu thích
