Grensene mellom GPU- og HBM-kollaps... Neste generasjons HBM skal legge inn GPU-kjerner En metode for å montere grafikkprosesseringsenheter (GPU-er) på neste generasjons høybåndbreddeminne (HBM) er under utvikling. Dette er en ny teknologi forsøkt av globale store teknologiselskaper for å forbedre ytelsen til kunstig intelligens (AI). Det betyr at grensene mellom halvlederselskaper rives ned i takt med sammensmeltingen av minne- og systemhalvledere. Ifølge omfattende rapportering den 26., vurderer Meta og NVIDIA planer om å montere GPU-kjerner på HBM. Spesifikt innebærer dette å legge GPU-kjerner inn i basebrikken nederst i HBM-stakken, og de utforsker for tiden samarbeid med SK Hynix og Samsung Electronics. Flere bransjeinnsidere med kjennskap til saken uttalte: «Neste generasjons 'custom HBM'-arkitekturer diskuteres, og blant dem er en struktur som direkte integrerer GPU-kjerner i HBM-basebrikken under arbeid.» HBM er et høyytelsesminne laget ved å stable flere DRAM-brikker. Den ble designet for AI-applikasjoner som trenger å behandle enorme mengder data. For øyeblikket er base-terningen ansvarlig for kommunikasjonen mellom minnet og omverdenen helt nederst i HBM-strukturen. Et steg fremover herfra er inkluderingen av en 'kontroller' slik den er implementert i HBM4. Industrien forsøker å øke ytelse og effektivitet ved å legge til en halvleder som kan kontrollere minne. HBM4 er et produkt som er planlagt for fullskala masseproduksjon fra og med neste år. Innbygging av GPU-kjerner tolkes som en teknologi flere steg foran HBM4-kontrolleren. I GPU-er og CPU-er er en kjerne den grunnleggende enheten som kan utføre uavhengig beregning. For eksempel betyr en 4-kjerners GPU at det finnes fire kjerner som kan beregne; Jo flere kjerner det er, desto bedre forbedres databehandlingsytelsen. Å legge kjerner inn i HBM er et forsøk på å fordele de beregningsfunksjonene som var konsentrert i GPU-en til minnet, og dermed redusere dataflyt og redusere belastningen på hoved-GPU-kroppen. En bransjerepresentant forklarte: «I AI-beregning er en viktig faktor ikke bare hastighet, men også energieffektivitet,» og la til: «Å redusere den fysiske avstanden mellom minne og beregningsenheter kan redusere både dataoverføringsforsinkelse og strømforbruk.» Likevel gjenstår tekniske utfordringer. På grunn av egenskapene til Through-Silicon Via (TSV)-prosessen er plassen tilgjengelig for å inneholde GPU-kjerner i HBM-basebrikken svært begrenset. Strømforsyning og varmeavledning er også store problemer. Siden GPU-beregningskjerner bruker høy strømforbruk og genererer betydelig varme, kan termisk kontroll bli en flaskehals. Denne utviklingen kan være både en mulighet og en krise for den innenlandske halvlederindustrien. Hvis selskaper har støperi- eller emballasjekapasitet til å implementere CPU-er eller GPU-er, blir det en mulighet til å videreutvikle HBM og fortsette å lede AI-halvledermarkedet. Det er imidlertid bekymring for at hvis responskapasiteten mangler, kan de bli underordnet systemhalvlederindustrien. Kim Joung-ho, professor ved School of Electrical Engineering ved KAIST, sa: «Hastigheten på teknologisk overgang der grensen mellom minne- og systemhalvledere kollapser for AI-utvikling, vil akselerere,» og la til: «Innenlandske selskaper må utvide sitt økosystem utover minne og inn i logikksektoren for å foregripe neste generasjons HBM-marked.»