Tôi nghĩ HBF bị đánh giá quá cao Ở một số nơi, nếu thực hiện một số sửa đổi phần mềm đáng kể, nó có thể không phải là không thể sử dụng, nhưng việc thay thế HBM hay quy mô thị trường lớn hơn là điều không tưởng Như đã viết ở đây, nếu chỉ đọc gần như không có gì khác ngoài việc đó, thì nó sẽ trở thành độ thiên lệch và trọng số của cùng một mô hình chứ không phải kv, nhưng như vậy thì sẽ rất khó sử dụng [Tin tức] Theo các chuyên gia, HBF có khả năng được tích hợp vào GPU NVIDIA vào năm 2027-28, và thị trường có thể vượt qua HBM vào năm 2038 Với sự gia tăng khối lượng công việc AI, việc phổ biến Flash băng thông cao (HBF) đang tăng tốc, và các chuyên gia dự đoán rằng việc thương mại hóa sẽ diễn ra sớm hơn dự kiến. Theo Sisa Journal, giáo sư Kim Jong-ho của KAIST, người được biết đến rộng rãi với danh hiệu "cha đẻ của HBM", đã gợi ý rằng Samsung Electronics và SanDisk có kế hoạch tích hợp HBF vào các sản phẩm của NVIDIA, AMD và Google vào cuối năm 2027 hoặc đầu năm 2028. Như báo cáo đã chỉ ra, giáo sư Kim cho biết việc phát triển HBM mất hơn 10 năm, trong khi các công ty đã bắt đầu phát triển HBF bằng cách tận dụng chuyên môn về quy trình và thiết kế đã tích lũy từ HBM, do đó HBF có khả năng được thương mại hóa nhanh hơn nhiều. Hơn nữa, ông Kim dự đoán rằng việc áp dụng HBF sẽ mở rộng vào khoảng thời gian ra mắt HBM6, và vào khoảng năm 2038, thị trường HBF có thể vượt qua HBM. Theo ông Kim, HBM6 không phải là một ngăn xếp bộ nhớ đơn lẻ mà là nhiều ngăn xếp được kết nối với nhau như một khu chung cư. Khi HBM dựa trên DRAM đối mặt với giới hạn dung lượng, ông Kim cho rằng HBF dạng ngăn xếp NAND sẽ xuất hiện để lấp đầy khoảng trống đó. Vai trò của HBF trong suy diễn AI và kiến trúc hệ thống Về vai trò của HBF trong khối lượng công việc AI, ông Kim giải thích rằng GPU sẽ lấy dữ liệu biến từ HBM trong quá trình suy diễn, xử lý và tạo ra đầu ra. Ông Kim cho rằng trong tương lai HBF sẽ đảm nhận vai trò này và cung cấp dung lượng lớn hơn nhiều để hỗ trợ các tác vụ. HBM nhanh nhưng HBF cung cấp dung lượng gấp khoảng 10 lần. Như báo cáo đã chỉ ra, ông Kim nhấn mạnh rằng HBF hỗ trợ chu kỳ đọc không giới hạn, trong khi chu kỳ ghi bị giới hạn ở khoảng 100.000 lần, do đó phần mềm của các công ty như OpenAI và Google cần được tối ưu hóa cho các thao tác tập trung vào đọc. Ông Kim cũng cho biết quy trình cung cấp dữ liệu cho GPU hiện tại bao gồm một mạng lưu trữ, bộ xử lý dữ liệu và một đường truyền dài qua pipeline GPU. Trong tương lai, ông hình dung một kiến trúc được hợp lý hóa có thể xử lý dữ liệu trực tiếp phía sau HBM. Cấu trúc này, dự kiến sẽ được thực hiện trong HBM7, cũng được gọi là "nhà máy bộ nhớ". Samsung và SK Hynix thúc đẩy phát triển HBF Như báo cáo đã nhấn mạnh, SK Hynix dự kiến sẽ công bố phiên bản thử nghiệm HBF vào cuối tháng này. Ngoài ra, Samsung Electronics và SK Hynix đã ký một biên bản ghi nhớ (MOU) để thúc đẩy tiêu chuẩn hóa HBF với SanDisk, và hiện đang tiến hành nỗ lực đó thông qua một liên minh hợp tác. Cả hai công ty đang tích cực phát triển sản phẩm HBF và nhắm đến việc ra mắt thị trường vào năm 2027. Theo các nguồn trong ngành được trích dẫn trong báo cáo, HBF được ước tính có thể đạt băng thông vượt quá 1.638GB/giây, điều này là một bước nhảy vọt lớn so với SSD tiêu chuẩn cung cấp khoảng 7.000MB/giây qua NVMe PCIe 4.0. Về dung lượng, HBF dự kiến sẽ đạt tối đa 512GB, vượt xa 64GB của HBM4.