Memorias

HBM4E: Nuevos detalles revelados de estas memorias especializadas en la IA

Los módulos de memoria HBM4E de Micron se han anunciado, aunque aún faltan, al menos, tres años para ver a estas memorias en acción.

HBM4E: Detalles sobre estas futuras memorias para la IA

Micron proporcionó una actualización sobre sus planes para HBM4 y HBM4E. Sabemos que HBM4 ofrecerá unos 2048 bits de interfaz y que estaría disponible para el año 2026, pero HBM4E ya está planeado para después del año 2026.

Mientras que las memorias HBM4 van a ofrecer velocidades de transferencia y ancho de banda más altos con respecto a las memorias HBM3/E,  los módulos de memorias HBM4E contaría con la opción para personalizar su matriz de base, algo inédito en la industria. Esto permitirá a Micron ofrecer matrices de base personalizadas para algunos de sus clientes, con una especie de soluciones a medida. De esta manera, TSMC fabricaría los chips lógicos personalizados mediante un nodo avanzado, lo que les permitirá incluir más cachés y lógica con el fin de obtener un mayor rendimiento y funcionalidad.

«HBM4E introducirá un cambio de paradigma en el negocio de la memoria al incorporar una opción para personalizar el chip de base lógica para determinados clientes mediante un proceso de fabricación de fundición lógica avanzado de TSMC», afirmó Sanjay Mehrotra, presidente y director ejecutivo de Micron. «Esperamos que esta capacidad de personalización impulse un mejor rendimiento financiero para Micron».

De momento, no se ha entrado en detalle sobre cómo planea Micron personalizar sus chips lógicos de base de HBM4E, así que podrían ser muchas las posibilidades, como capacidades de mejorados, protocolos de interfaz personalizados para determinadas tareas específicas (IA, HPC, redes, etc.), capacidades de transferencia de memoria a memoria, ECC personalizados, etc, etc.

Lo que sabemos de HBM4 es que Micron utilizará los módulos DRAM de la compañía fabricadas con su proceso 1β (10 nm de quinta generación), colocadas sobre una matriz base con una interfaz de 2048 bits de ancho y una velocidad de transferencia de datos de hasta de 6,4 GT/s, para un ancho de banda máximo de 1,64 TB/s por pila.

Se espera que las aceleradoras Vera Rubin de Nvidia e Instinct MI400 de AMD ocupen estas memorias en el futuro.

En este momento, Micron se encuentra enviando las memorias HBM3E de 8 Hi para las aceleradoras Blackwell de Nvidia, mientras que las memorias HBM3E de 12 Hi se encuentran ahora en la fase de pruebas. Os mantendremos informados.

Recent Posts

  • Smartphone

7 consejos para tomar grandes fotos urbanas con tu smartphone

Las fotos urbanas con tu smartphone sirven para capturar la esencia de la ciudad sin…

9 horas atrás
  • Tutoriales

Cómo comprimir archivos en Windows 11 sin instalar nada

En esta guía te voy a explicar cómo comprimir archivos en Windows 11 sin instalar…

10 horas atrás
  • Tutoriales

Bibliotecas de células: ¿qué son y cómo se usan para fabricar chips?

Las bibliotecas de células son un elemento fundamental que se emplea durante la etapa de…

11 horas atrás