La integración de HBM-PIM con Xilinx ha sido perfecta y ha supuesto a Samsung lograr un incremento del rendimiento en 2.5 veces y una reducción del consumo en un 60%. La arquitectura PIM irá más allá de la memoria HBM: módulos de memoria RAM y memoria móvil.
Samsung hace saltar por los aires el evento Hot Chips 33, después de presentar uno de los avances más importantes en la tecnología de procesamiento en memoria (PIM). Ya anunció el primer HBM-PIM, pero faltaba su integración en un sistema acelerador. Los objetivos de Samsung es encarar esta invención al sector móvil y a los módulos RAM.
Como detalle, AMD compró Xilinx y parece que vio un filón de futuro porque ha sido indispensable para sacar adelante esta integración por parte de Samsung con su HBM-PIM. El primer HBM-PIM presentado por Samsung fue el Aquabolt-XL (el 1º de la industria), el cual venía con una función de procesamiento IA en el HBM2.
Esto le permitía mejorar el procesamiento de datos a alta velocidad en superordenadores, centros de datos y aplicaciones IA, ¿cuál es la noticia? Que ese HBM-PIM se ha implementado en un acelerador de Inteligencia Artificial, como es el Xilinx Virtex Ultrascale+, que supuso una ganancia de rendimiento de 2.5 veces y una reducción del consumo en un 60%.
EL vicepresidente senior de Producto y Tecnología DRAM, Nam Sung Kim, dijo lo siguiente:
HBM-PIM es la primera solución de memoria adaptada a la IA de la industria que se está probando en los sistemas aceleradores de IA de los clientes.
A través de la estandarización de la tecnología, las aplicaciones serán numerosas, expandiéndose a HBM3 para supercomputadoras de próxima generación y aplicaciones de IA, e incluso a memoria móvil para IA en el dispositivo.
Y así nos han enseñado el módulo DRAM con tecnología PIM, como ellos lo han llamado AXDIMM, cuyo procesamiento se encuentra en el mismo módulo DRAM para minimizar el movimiento de datos entre CPU-DRAM y para reducir el consumo.
Como veis en la imagen, debajo del AXDIMM Buffer, hay un motor de Inteligencia Artificial, y es que este chip puede realizar el procesamiento paralelo de varios rangos de memoria. El módulo tiene el factor de forma DIMM tradicional, lo que otorga compatibilidad a los clientes para que éstos no se vean obligados a cambiar la placa base de sus sistemas.
En estos momentos, se está testeando en servidores y está ofreciendo casi el doble de rendimiento en aplicaciones basadas en IA, disminuyendo un 40% el consumo. SAP es una de las empresas que ha colaborado con Samsung para ello, y ha confirmado que se espera más rendimiento y más eficiencia energética por medio de Oliver Rebholz, el Director de investigación e innovación central de HANA en SAP.
Una de las ideas de Samsung es la LPDDR5-PIM, que tendría capacidades de Inteligencia Artificial independientes sin necesitar conectarse a un centro de datos. Se han realizado pruebas de simulación que apuntan a que la LPDDR5-PIM podría duplicar el rendimiento y reducir el consumo de energía en reconocimiento de voz, traducción y chat bot.
Por otro lado, Samsung sabe que el futuro está en la memoria con IA, así que está trabajando con otras empresas para estandarizar la plataforma PIM en 2022.
Te recomendamos las mejores memorias RAM del mercado
¿Veremos esto en la plataforma de escritorio?
Intel revela sus próximas aceleradoras Jaguar Shores, que van a llegar después del lanzamiento de…
Abysm es una de las muchas marcas que celebran el Black Friday a lo grande.…
YouTube se prepara para lanzar una función que va a cambiar la forma en la…