Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Evet, hem ICMS hem de Enfabrica temelli mimariyi araştırıyorum. Bu bir tür Mellanox anlaşması. Ama NVLink GPU, CPU ve DPU etrafında çok tıkışık olurdu. Nvidia, kv ve ağırlık için veri geçişini basitleştirmek zorunda.

Zephyr11 Sa Önce
HBF tanıtımı gerçekleşmeyecek
Nedenini öğrenmek için Nvidia'nın ICMS ve Enfabrica anlaşmasına bakın
36
Bence HBF fazla abartılı
Bazı durumlarda, yazılım önemli ölçüde değiştirilirse, kullanımı imkansız olmaz, ancak HBM'nin yerini alacağı ya da pazar büyüklüğünün büyük olacağı bir yanılsama olur
Burada yazıldığı gibi, neredeyse burada yükleniyorsa, aynı modelin önyargısı ve ağırlığı olacak, KV değil, ama bu inanılmaz derecede kullanılamaz olurdu
Uzmanlara göre, HBF 2027~28 yılına kadar NVIDIA GPU'larında tanıtılabilir ve pazar 2038'de HBM'yi geçebilir
Yapay zeka iş yüklerinin artmasıyla birlikte, yüksek bant genişliğine sahip flash (HBF) uygulaması hızlanıyor ve uzmanlar beklenenden daha erken bir ticarileşme öngörüyor. Sisa Journal'a göre, "HBM'nin babası" olarak bilinen KAIST profesörü Kim Jong-ho, Samsung Electronics ve SanDisk'in HBF'yi NVIDIA, AMD ve Google ürünlerine 2027 sonu veya 2028 başı boyunca entegre etmeyi planladığını öne sürüyor. Raporda belirtildiği gibi, Kim HBM'nin geliştirilmesinin 10 yıldan fazla sürdüğünü, ancak şirketlerin HBM'de biriktirilen süreç ve tasarım uzmanlığını HBF'yi geliştirmek için zaten kullandığı için HBF'nin çok daha erken ticarileştirilebileceğini ekliyor.
Ayrıca, Kim, HBF benimsemesinin HBM6 tanıtıldığı dönemde genişleyeceğini ve HBF pazarının 2038 civarında HBM'yi geçebileceğini öngörüyor. Kim'e göre, HBM6 tek bir bellek yığını değil, birden fazla yığın bir apartman binası gibi birbirine bağlıdır. DRAM tabanlı HBM'ler kapasite kısıtlamalarıyla karşı karşıya kaldığından, Kim HBF'nin NAND yığınları şeklinde ortaya çıkacağına inanıyor ve bu boşluğu dolduracak.
HBF'nin yapay zeka çıkarımı ve sistem mimarisindeki rolü
HBF'nin yapay zeka iş yüklerindeki rolüyle ilgili olarak, Kim, GPU'ların çıkarım sırasında önce HBM'den değişken veri elde ettiğini, bunu işlediğini ve çıktı ürettiğini açıkladı. Kim, gelecekte HBF'nin bu rolü üstleneceğine ve görevi desteklemek için çok daha büyük kapasite sağlayacağına inanıyor. HBM daha hızlı, HBF ise yaklaşık 10 kat daha fazla kapasite sağlıyor. Raporda belirtildiği gibi, Kim HBF'nin sınırsız okuma döngülerini desteklediğini ancak yaklaşık 100.000 yazma döngüsiyle sınırlı olduğunu ve bu nedenle OpenAI ve Google gibi şirketlerin yazılımlarının okuma yoğun işlemler için optimize edilmesi gerektiğini vurguluyor.
Kim ayrıca mevcut veri sürecinin GPU'lara aktarma sürecinin, depolama ağı, veri işlemcileri ve GPU boru hatları üzerinden uzun bir iletim yolu gerektirdiğini ekledi. Gelecekte, şirket verileri doğrudan HBM'nin arkasında işleyebilen daha akıcı bir mimari hayal ediyor. HBM7'de uygulanması beklenen bu yapı bazen "bellek fabrikası" olarak da adlandırılır.
Samsung ve SK hynix, HBF'nin geliştirilmesini teşvik ediyor
Raporda vurgulandığı gibi, SK hynix bu ayın ilerleyen dönemlerinde HBF'nin deneme versiyonunu demo olarak yayınlamayı planlıyor. Rapor ayrıca, Samsung Electronics ve SK hynix'in HBF standartlaştırmasını teşvik etmek için SanDisk ile bir mutabakat memorandumu (MOU) imzaladığı ve şu anda ortak bir konsorsiyum aracılığıyla bu girişim üzerinde çalıştıkları belirtildi. Her iki şirket de aktif olarak HBF ürünleri geliştiriyor ve 2027'de piyasaya sürmeyi hedefliyor.
Raporda referans verilen sektör kaynaklarına göre, HBF'nin 1.638GB/s'nin üzerinde bant genişliği sağlayabildiği tahmin ediliyor; bu, genellikle NVMe PCIe 4.0 üzerinden yaklaşık 7.000MB/s sunan standart SSD'lere kıyasla önemli bir sıçramadır. Kapasite açısından, HBF'nin 512GB'a ulaşması bekleniyor; bu, HBM4'ün 64GB'ından önemli ölçüde daha yüksek.
29
Bakır folyo, sondaj çukuru
Google TPUでアップグレード
M9グレーパナソニックつえええ
Google'ın TPU'ları CCL (Chip Cl) teknolojisinde öncülük ediyor ve matkap ucu üreticileri yükseltmeleri memnuniyetle karşılıyor.
ASIC platformları daha yüksek hesaplama yoğunluğu ve bant genişliği gereksinimlerine doğru evrilmeye devam ederken, Google'ın kendi geliştirdiği TPU'lar yeni bir spesifikasyon yükseltme aşamasına giriyor. Tedarik zinciri kaynaklarına göre, Google 2026'dan itibaren yeni nesil TPU platformu için PCB katmanları ve CCL malzeme sınıflarını kapsamlı şekilde artırmayı planlıyor; böylece Japonya ve Tayvan'daki CCL üreticilerine spesifikasyon yükseltme fırsatları sunuyor. Alt tabaka katmanlarının sayısı arttıkça ve malzemelerin zorluğu arttıkça, üretim sürecinde matkap uçlarına olan talep yapısı da değişir.
Google'ın TPU projeleri için CCL tedariki şu anda ağırlıklı olarak Japonya'nın Panasonic ve Tayvan'ın Taikoo Technology şirketleri tarafından desteklenmektedir. TPU V6e nesline (Ghost serisi) geriye dönüp bakıldığında, Panasonic düşük dielektrik sabit cam lifleri arz eksikliğinden muzdaripti ve Swire Technology tedarik zincirine girerek belirli bir pay kazandı. Tedarik zinciri tahminlerine göre, yeni nesil TPU projesinin yaklaşık %70'i Panasonic tarafından sağlanacak, Swire ise yaklaşık %30 oranında tedarik edilecek; bu da daha istikrarlı bir tedarik yapısına dönüşü gösteriyor.
Mevcut tasarıma dayanarak, Ghost serisindeki GhostLite ve GhostFish, yaklaşık 22~24 katman PCB ve M7 sınıfı CCL içeren muhafazakar bir konfigürasyonu korur. Ancak 2026'dan sonra TPU platformu ZebraFish ve SunFish'e geçecek ve bu da genel spesifikasyonları önemli ölçüde iyileştirecek. Tedarik zinciri kaynaklarına göre, yeni platform M8/M9 sınıfı CCL kullanıyor ve PCB katmanlarının sayısı sırasıyla 36 ve 44 katmana çıkarılıyor; ayrıca daha yüksek kaliteli Low Dk optik fiber ve HVLP4 bakır folyo benimseyerek daha yüksek bant genişliği ve güç tüketimi gereksinimlerini karşılaması bekleniyor.
PCB katmanlarının ve malzeme sınıflarının sayısı arttıkça, üretim sürecine uygulanan baskı da artıyor. Sektör içinden kaynaklara göre, yüksek kaliteli yapay zeka kartları için matkap uçlarına olan taleb, PCB üretim değerinin büyüme oranını önemli ölçüde aşan bir hızla büyüyor. Daha önce tek bir matkap ucu yaklaşık 3.000 kez kullanılıyordu, ancak üst düzey yapay zeka kartlarının benimsenmesiyle ömrü keskin şekilde 800 katın altına düştü. Gelecekte, M9 seviyeli interpozer kartları ve ASIC anakartları tanıtılırsa, tek bir matkap ucu kullanma sayısı daha da azalabilir.
Sektör analistleri, Google'ın 2026 sonrası TPU tasarım dönüşümünün, ASIC'lerin "yüksek kat sayısı, yüksek malzeme özellikleri ve yüksek katma değer" gibi yeni bir aşamaya girdiği anlamına geldiğine inanıyor. Bu sadece yüksek kaliteli CCL ve PCB ürünlerinin ortalama satış fiyatına (ASP) yansımayacak, aynı zamanda düşük dielektrik fiberglas, yüksek kaliteli HVLP bakır folyo ve matkap uçları gibi önemli üst akış tedarik zincirlerine de yansıyacak. Tedarik zincirleri, yeni platformların benimsenmesine uyum sağlamak için konfigürasyonlarını önceden ayarlıyor.
29
En İyiler
Sıralama
Takip Listesi
