Colapsul granițelor dintre GPU și HBM... HBM de generație următoare va încorpora nucleele GPU Se urmărește o metodă de montare a Unităților de Procesare Grafică (GPU-uri) pe memoria cu lățime de bandă mare (HBM) de generație următoare. Aceasta este o tehnologie nouă încercată de marile companii tehnologice globale pentru a îmbunătăți performanța Inteligenței Artificiale (AI). Semnifică faptul că granițele dintre companiile de semiconductori sunt dărâmate pe măsură ce se intersectează memoria și semiconductorii de sistem. Conform unui raport cuprinzător din 26, Meta și NVIDIA analizează planurile de a monta nuclee GPU pe HBM. Mai exact, aceasta implică integrarea nucleelor GPU în cipul de bază situat la baza stivei HBM, iar în prezent explorează cooperarea cu SK Hynix și Samsung Electronics. Mai mulți specialiști din industrie familiarizați cu subiectul au declarat: "Se discută despre arhitecturi 'HBM personalizate' de nouă generație, iar printre acestea se urmărește o structură care integrează direct nucleele GPU în cipul de bază HBM." HBM este o memorie de înaltă performanță creată prin suprapunerea mai multor cipuri DRAM. A fost conceput pentru aplicații AI care trebuie să proceseze cantități masive de date. În prezent, cipul de bază este responsabil pentru comunicarea dintre memorie și lumea exterioară, situat la baza structurii HBM. Un pas înainte de aici este includerea unui "controler", așa cum este implementat în HBM4. Industria încearcă să crească performanța și eficiența prin adăugarea unui semiconductor capabil să controleze memoria. HBM4 este un produs programat pentru producție în masă la scară largă începând de anul viitor. Încorporarea nucleelor GPU este interpretată ca o tehnologie cu câțiva pași înaintea controlerului HBM4. În GPU-uri și procesoare, un nucleu este unitatea de bază capabilă de calcul independent. De exemplu, o placă video cu 4 nuclee înseamnă că există patru nuclee capabile de calcul; Cu cât există mai multe nuclee, cu atât performanța de calcul se îmbunătățește. Introducerea nucleelor în HBM este o încercare de a distribui funcțiile computaționale concentrate în GPU către memorie, reducând astfel mișcarea datelor și diminuând povara asupra corpului principal al GPU-ului. Un oficial din industrie a explicat: "În calculul AI, un factor important nu este doar viteza, ci și eficiența energetică", adăugând: "Reducerea distanței fizice dintre memorie și unitățile de calcul poate reduce atât latența transferului de date, cât și consumul de energie." Totuși, persistă provocări tehnice. Datorită caracteristicilor procesului Through-Silicon Via (TSV), spațiul disponibil pentru a conține nucleele GPU în cipul de bază HBM este foarte limitat. Sursa de alimentare și disiparea căldurii sunt, de asemenea, probleme majore. Deoarece nucleele de calcul ale GPU-urilor consumă energie mare și generează căldură semnificativă, controlul termic ar putea deveni un blocaj. Această evoluție ar putea fi atât o oportunitate, cât și o criză pentru industria internă a semiconductorilor. Dacă companiile dețin capacitățile de turnătorie sau ambalare necesare pentru a implementa procesoare sau GPU-uri, aceasta devine o oportunitate de a dezvolta HBM în continuare și de a continua să conducă piața semiconductorilor AI. Totuși, există îngrijorarea că, dacă capabilitățile de răspuns sunt deficitare, acestea ar putea deveni subordonate industriei semiconductorilor de sistem. Kim Joung-ho, profesor la Școala de Inginerie Electrică de la KAIST, a declarat: "Viteza tranziției tehnologice, acolo unde granița dintre memorie și semiconductori de sistem se prăbușește pentru avansul AI, se va accelera" și a adăugat: "Companiile interne trebuie să-și extindă ecosistemul dincolo de memorie, în sectorul logicii, pentru a preveni piața HBM de generație următoare."