Las fronteras entre GPU y HBM colapsan... HBM de próxima generación integrará núcleos de GPU Se está buscando un método para montar Unidades de Procesamiento Gráfico (GPU) en la memoria de alto ancho de banda (HBM) de próxima generación. Esta es una nueva tecnología que están intentando las grandes empresas tecnológicas globales para mejorar el rendimiento de la Inteligencia Artificial (AI). Significa que las fronteras entre las empresas de semiconductores están siendo derribadas en medio de la convergencia de la memoria y los semiconductores de sistema. Según un informe completo del 26, Meta y NVIDIA están revisando planes para montar núcleos de GPU en HBM. Específicamente, esto implica integrar núcleos de GPU en el chip base ubicado en la parte inferior de la pila de HBM, y actualmente están explorando la cooperación con SK Hynix y Samsung Electronics. Varios expertos de la industria familiarizados con el asunto afirmaron: "Se están discutiendo arquitecturas de 'HBM personalizadas' de próxima generación, y entre ellas, se está persiguiendo una estructura que integre directamente los núcleos de GPU en el chip base de HBM." HBM es una memoria de alto rendimiento creada apilando múltiples chips DRAM. Fue diseñada para aplicaciones de AI que necesitan procesar grandes cantidades de datos. Actualmente, el chip base es responsable de la comunicación entre la memoria y el mundo exterior en la parte inferior de la estructura de HBM. Un paso adelante desde aquí es la inclusión de un 'controlador' como se implementa en HBM4. La industria está intentando aumentar el rendimiento y la eficiencia añadiendo un semiconductor capaz de controlar la memoria. HBM4 es un producto programado para producción masiva a gran escala a partir del próximo año. Integrar núcleos de GPU se interpreta como una tecnología varios pasos por delante del controlador HBM4. En GPUs y CPUs, un núcleo es la unidad básica capaz de computación independiente. Por ejemplo, una GPU de 4 núcleos significa que hay cuatro núcleos capaces de computación; cuantos más núcleos hay, mayor es la mejora en el rendimiento computacional. Incorporar núcleos en HBM es un intento de distribuir las funciones computacionales que estaban concentradas en la GPU a la memoria, reduciendo así el movimiento de datos y disminuyendo la carga sobre el cuerpo principal de la GPU. Un funcionario de la industria explicó: "En la computación de AI, un factor importante no es solo la velocidad, sino también la eficiencia energética," y añadió: "Reducir la distancia física entre la memoria y las unidades computacionales puede reducir tanto la latencia de transferencia de datos como el consumo de energía." Sin embargo, permanecen desafíos técnicos. Debido a las características del proceso de Vía a través del Silicio (TSV), el espacio disponible para contener núcleos de GPU en el chip base de HBM es muy limitado. La alimentación y la disipación de calor también son problemas importantes. Dado que los núcleos de computación de GPU consumen alta energía y generan un calor significativo, el control térmico podría convertirse en un cuello de botella. Este desarrollo podría ser tanto una oportunidad como una crisis para la industria de semiconductores nacional. Si las empresas poseen las capacidades de fundición o empaquetado para implementar CPUs o GPUs, se convierte en una oportunidad para desarrollar aún más HBM y continuar liderando el mercado de semiconductores de AI. Sin embargo, existe la preocupación de que si faltan capacidades de respuesta, podrían convertirse en subordinadas a la industria de semiconductores de sistema. Kim Joung-ho, profesor en la Escuela de Ingeniería Eléctrica de KAIST, dijo: "La velocidad de la transición tecnológica donde la frontera entre la memoria y los semiconductores de sistema colapsa para el avance de la AI se acelerará," y añadió: "Las empresas nacionales deben expandir su ecosistema más allá de la memoria hacia el sector lógico para anticiparse al mercado de HBM de próxima generación."