Las tarjetas gráficas hacen uso de chips de memoria VRAM para almacenar información a la que necesitan acceder de manera recurrente. Uno de los tipos de memorias que existen para tarjetas gráficas son las High Brandwidth Memory (HBM) que tiene algunas ventajas frente otros tipos de memoria.
Índice de contenidos
Son un tipo de memorias para ordenador de alta velocidad que se caracterizan por ofrecer acceso aleatorio dinámico de manera síncrona con apilamiento 3D. HBM es un tipo de memoria desarrollado y principalmente utilizado para aceleradores gráficos de alto rendimiento, dispositivos de red, ASIC y FPGA para IA para centro de datos de alto rendimiento, en supercomputadoras y en algunos modelos de tarjetas gráficas gaming.
El primer chip de memoria HBM fue fabricado por parte de SK Hynix en el año 2013. Los primeros productos en serie en integrar las memorias HBM fueron las GPU AMD Fuji lanzadas en 2015.
HBM lo que ofrece es un gran ancho de banda con un consumo de energía menor que los estándares DDR y GDDR. Esto se consigue mediante el apilamiento de hasta ocho matrices DRAM y una matriz base opcional que pueden incluir un búfer y un circuito de lógica de prueba. Las memorias apiladas están interconectadas verticalmente por vías de silicio pasantes (TSV) y microsoldaduras (microbumps). Normalmente las memorias HBM se instalan en el mismo sustrato de la GPU y CPU.
AMD y NVIDIA utilizan diferentes variantes de memorias HBM integradas en el mismo encapsulado de las GPU profesiones. Las memorias HBM también se pueden integrar en el mismo encapsulado de la CPU. NVIDIA y AMD utilizan diseños especiales para estas GPU que integran un interposer que hace que las memorias HBM se puedan instalar junto a la GPU y así obtener mejor rendimiento y menos consumo. El problema es que la fabricación de las memorias HBM es caro y las GPU que las integran también son más caras, ya que necesitan elementos adicionales.
Este tipo de memorias se empezaron a desarrollar en el año 2008 y fue AMD quien empezó su desarrollo. La compañía lo que buscaba era crear unas memorias que corrigieran el problema del consumo y el factor de forma. Se buscaba conseguir una solución que satisficiera las necesidades crecientes de la cantidad de memoria de un ordenador, pero ocupando menos espacio y consumiendo menos.
AMD en los siguientes años estuvo trabajando en el desarrollo de diferentes procedimientos para el apilamiento de matrices. El equipo encargado del desarrollo de estas memorias fue Bryan Black, miembro senior de AMD. Destacar que AMD busco la colaboración de socios de la industria con experiencia en la fabricación y desarrollo de memorias. Uno de los más destacados fue SK Hynix, quien ya tenía experiencia previa en la construcción de memorias apiladas en 3D. También contó con la taiwanesa UMC, especializada en interposers y, Amkor Technology y ASE, dos compañías especializadas en el proceso de encapsulado.
HBM se terminó de desarrollar en 2013, año en el que SK Hynix fabricó el primer chip de memoria. JEDEC adopto las memorias HBM como estándar en octubre de 2013, como resultado de una petición realizada por AMD y SK Hynix en 2010. La fabricación masiva de memorias HBM por parte de SK Hynix empezó en 2015.
El primer producto comercial en utilizar memorias HBM fueron las GPU AMD Fiji, que se lanzó al mercado en junio de 2015, siendo la tarjeta gráfica AMD Radeon R9 Fury que las utilizó.
Samsung en enero de 2016 empezó la fabricación temprana de las memorias HBM2. Ese mismo mes JEDEC acepto las memorias HBM2 como un estándar. La primera solución comercial en usar memorias HBM2 fue la tarjeta gráfica NVIDIA Tesla P100, que se empezó a comercializar en abril de 2016. Intel poco después, en junio de 2016, lanzo las aceleradoras Xeon Phi que cuentan con 8 stacks de memoria HCDRAM, una variante de las memorias HBM fabricada por Micron.
Estas memorias destacan por ser una solución especialmente excepcional para tareas de computación que hacen un uso intensivo de memoria. Las principales características de estas memorias son:
Las memorias HBM tienen la característica de poderse instalar directamente en el encapsulado de la GPU/CPU. Esto lo que permite es reducir la distancia que debe recorrer la información, gracias al interposer. Así se conectan con la GPU/CPU mediante unas vías de alto rendimiento y eficiencia. Si bien no están integradas físicamente en la GPU/CPU, la velocidad de transferencia es increíble.
Optar por las memorias HBM lo que permite es mejorar la eficiencia energética del sistema. Se requieren menos chips de memoria por GPU, lo cual ya de primeras permite reducir el consumo energético frente a las memorias GDDR. Pero es que además, las memorias HBM están junto a la GPU, en el mismo encapsulado, mientras que las memorias GDDR están alrededor del encapsulado de la GPU, lo cual reduce también notablemente el consumo de energía.
Adicionalmente las memorias HBM se caracterizan por tener un diseño que ahorra espacio. Para la misma cantidad de memoria en una tarjeta gráfica, las memorias HBM ocupan hasta un 94% menos que las memorias GDDR5. No solo esto, al estar las memorias HBM integradas en el encapsulado de la GPU, se puede reducir el tamaño de la PCB con respecto a las memorias GDDR.
Las memorias HBM ofrece un ancho de banda muy superior al ofrecido por las memorias GDDR. Esto hace que las memorias HBM sean especialmente óptimas para tareas como la Inteligencia Artificial, Deep Learning, supercomputación y otras situaciones donde exista un enorme flujo de datos.
No todo son luces con las memorias HBM, también hay una sombra y es el coste de fabricación. Se estima que el coste de fabricación de obleas de memorias HBM es entre un 30-50% más que una oblea de memorias DRAM (GDDR). Esto se debe a las características y particularidades de fabricación de estas memorias. Por este mismo motivo este tipo de memorias no se utilizan en tarjetas gráficas gaming, ya que supondría aumentar muchísimo el precio final.
Vamos ahora a hacer un pequeño repaso a las diferentes variantes de memorias HBM que han ido apareciendo. Algunas de las memorias que aquí aparecen aún no se comercializan, ya que están aún en fase de desarrollo.
Las memorias HBM ofrecen un bus de memoria más grande que otros estándares DRAM (como DDR4 y GDDR5). Una pila HBM hace uso de cuatro matrices DRAM (4-Hi) que tiene dos canales de 128 bits por matriz para un total de 8 canales y una interfaz de memoria de 1024 bits (ancho de banda de 128GB/s). Cada uno de los stack de memoria puede tener una capacidad máxima de 4GB y se pueden instalar hasta 16GB de memoria HBM.
Una GPU con cuatro pilas HBM de 4-Hi puede ofrecer un ancho de banda de memoria de 4096 bits. Las memorias GDDR5 únicamente ofrece 32 bits por canal y un máximo de 16 canales, ofreciendo así una interfaz de memoria de 512 bits.
Es la evolución de las memorias HBM, con importantes mejoras de rendimiento y de capacidad. Las memorias HBM2 se caracterizan por ofrecer un ancho de banda de 2656GB/s por stack y un límite de 8GB de memoria por stack. Se caracterizan también por ofrecer la posibilidad de integrar hasta 8 stacks de memoria, ofreciendo una capacidad total de 64GB HBM2.
Podríamos decir que estas memorias son una «simple» actualización de las memorias HBM2. Estas nuevas memorias HBM2e se caracterizan por ofrecer un ancho de banda de hasta 307GB/s por stack de memoria. Esta actualización permite el apilamiento de hasta doce capas de memoria (12-Hi) permitiendo un total de 24GB por stack.
HBM2e ha recibido dos variantes:
Para finales de 2020 se anunció por parte de Micron la actualización de HBM2e, que recibió inicialmente el nombre de memorias HBMnext. Posteriormente estás memorias se han rebautizado como memorias HBM3. Estas nuevas memorias ofrecerán un ancho de banda por stack de memoria de 665GB/s. Cada uno de los stack de memoria podrá soportar hasta 64GB de capacidad en un formato de 16 matrices (16-Hi). Adicionalmente estas memorias han licenciado a Xperi Corp la tecnología de interconexión híbrida DBI Ultra 2.5D/3D.
Samsung en febrero de 2021 anuncio el desarrollo de unas memorias HBM «especiales» con procesamiento de memoria. Dichas memorias se han desarrollado integramente para la computación IA dentro de la memoria. Esto permite aumentar la capacidad de procesamiento de datos a gran escala. Permite instalar un motor de IA optimizado para DRAM dentro de cada stack de memoria que permite el procesamiento paralelo y que minimiza el movimiento de datos. Según Samsung, el rendimiento del sistema se duplicará y además, el consumo de energía se reducirá en un 70%, sin necesidad de cambiar de hardware o software.
Las memorias High Brandwith Memory se han convertido fundamentales para segmentos tan importantes como la inteligencia artificial, el aprendizaje profundo y la supercomputación, entre otros. HBM es un estándar de memoria que se ha adoptado para tarjetas gráficas destinadas a computación avanzada, como las mencionadas y también se están integrando en las CPU, es más, las CPU Intel Xeon Sapphire Rapids, que se lanzarán en 2022, algunos modelos integrarán memorias HBM2e.
Te recomendamos este artículo con la comparativa de las memorias HBM2 y las memorias GDDR6
AMD fue quien empezó su desarrollo para mejorar la eficiencia energética y que se pudieran escalar los tamaños de memoria. Pero otro de los motivos, es que la arquitectura GCN tenía un problema y es que requería de un gran ancho de banda o al menos, cuanto mayor ancho de banda con las memorias, mejor rendimiento se obtenía. Esto ha quedado atrás con la arquitectura RDNA para gaming y la arquitectura CDNA para gráficas de computación avanzada.
Vemos que las memorias HBM han evolucionado muy bien, pero es difícil que terminen siendo usadas en el mercado gaming. El problema de las memorias HBM es que son más difíciles y costosas de fabricar que las memorias DRAM GDDR. Vimos como las memorias HBM2 supusieron que las AMD Radeon Vega 64 fueran excesivamente caras con respecto al rendimiento que ofrecían. Si bien muchos apuntan a que las memorias HBM terminaran reemplazando a las memorias GDDR, de momento esto parece bastante inviable económicamente.
¿Qué opinas al respecto de las memorias High Brandwith Memory (HBM)?
NVIDIA no solo da razones teóricas, sino fundamentos en forma de ofertas de todo GeForce…
Hace algunos meses salió una información que indicaba que las aceleradoras de IA Nvidia Blackwell…
Intel revela sus próximas aceleradoras Jaguar Shores, que van a llegar después del lanzamiento de…