Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gränserna mellan GPU- och HBM-kollaps... Nästa generations HBM för att bädda in GPU-kärnor
En metod för att montera grafikprocessorer (GPU:er) på nästa generations högbandsminne (HBM) pågår. Detta är en ny teknik som försöks av globala stora teknikföretag för att förbättra prestandan inom artificiell intelligens (AI). Det innebär att gränserna mellan halvledarföretag rivs ner i samband med konvergensen mellan minnes- och systemhalvledare.
Enligt omfattande rapportering den 26:e granskar Meta och NVIDIA planer på att montera GPU-kärnor på HBM. Specifikt innebär detta att integrera GPU-kärnor i bas-chipet som ligger längst ner i HBM-stacken, och de undersöker för närvarande samarbete med SK Hynix och Samsung Electronics.
Flera branschinsiders med insyn i frågan uppgav: "Nästa generations 'anpassade HBM'-arkitekturer diskuteras, och bland dem eftersträvas en struktur som direkt integrerar GPU-kärnor i HBM:s baschip."
HBM är ett högpresterande minne som skapas genom att stapla flera DRAM-chip. Det är designat för AI-applikationer som behöver hantera enorma mängder data.
För närvarande ansvarar bas-tärningen för kommunikationen mellan minnet och omvärlden längst ner i HBM-strukturen. Ett steg framåt härifrån är införandet av en 'kontroller' som implementerats i HBM4. Industrin försöker öka prestanda och effektivitet genom att lägga till en halvledare som kan kontrollera minne. HBM4 är en produkt som är planerad för fullskalig massproduktion med start nästa år.
Att bädda in GPU-kärnor tolkas som en teknik flera steg före HBM4-kontrollern. I GPU:er och CPU:er är en kärna den grundläggande enheten som kan utföra oberoende beräkningar. Till exempel innebär ett 4-kärnigt GPU att det finns fyra kärnor som kan beräkna beräkningar; Ju fler kärnor det finns, desto bättre förbättras datorprestandan.
Att lägga kärnor i HBM är ett försök att distribuera de beräkningsfunktioner som koncentrerades i GPU:n till minnet, vilket minskar dataflödet och minskar bördan på huvud-GPU:ns kropp.
En branschföreträdare förklarade: "Inom AI-beräkningar är en viktig faktor inte bara hastighet utan även energieffektivitet," och tillade: "Att minska det fysiska avståndet mellan minne och beräkningsenheter kan minska både dataöverföringsfördröjning och energiförbrukning."
Dock kvarstår tekniska utmaningar. På grund av egenskaperna hos Through-Silicon Via (TSV)-processen är utrymmet för att innehålla GPU-kärnor i HBM-bas-kretsen mycket begränsat. Strömförsörjning och värmeavledning är också stora problem. Eftersom GPU:s beräkningskärnor förbrukar hög ström och genererar betydande värme kan termisk kontroll bli en flaskhals.
Denna utveckling kan vara både en möjlighet och en kris för den inhemska halvledarindustrin. Om företag har foundry- eller förpackningskapacitet för att implementera CPU:er eller GPU:er blir det en möjlighet att vidareutveckla HBM och fortsätta leda AI-halvledarmarknaden. Det finns dock en oro för att om responskapaciteten saknas kan de bli underordnade systemhalvledarindustrin.
Kim Joung-ho, professor vid School of Electrical Engineering på KAIST, sade: "Den teknologiska övergångens hastighet där gränsen mellan minne och systemhalvledare kollapsar för AI-utveckling kommer att accelerera," och tillade: "Inhemska företag måste expandera sitt ekosystem bortom minne till logiksektorn för att förekomma nästa generations HBM-marknad."

Topp
Rankning
Favoriter
