La IA es cara y el suministro de HBM3e no es sencillo, así que NVIDIA tendrá los 3 proveedores a su disposición para conseguir los 24 GB que necesita.
Todo sea por la IA, y esperemos que no sea una burbuja que termine explotando porque NVIDIA se iría a la bancarrota. Apilar verticalmente memoria RAM no es sencillo, a pesar de que eliminemos los cuellos de botella de consumo. Fabricarlas es muy complejo, por lo que el ritmo de producción marcado por la marca es insostenible con solo un fabricante, ¡necesita a los 3!
NVIDIA necesita al «trío» para su memoria HBM3e de 24 GB
Sería una de las pocas veces que Samsung, SK hynix y Micron se unen conjuntamente para fabricarle la misma tecnología a una sola empresa: NVIDIA. Esta tecnología, según TrendForce, sería HBM3 y el fin está claro: lograr una cadena de suministro sólida.
Dejar a las empresas sin stock no es negociable, y los pasos están marcados:
- Micron dio a NVIDIA samples de 24 GB HBM3e en julio de 2023.
- Poco después lo hizo SK hynix.
- En diciembre de 2023, se espera que Samsung complete el «OK» de NVIDIA para la memoria HBM3 de 24 GB.
- Todo debería estar listo para el 1º trimestre de 2024.
¿Por qué HBM3e? Porque es lo último en memoria VRAM, por no hablar de que elimina cuello de botella en el ancho de banda y consumen menos energía. De momento, es una memoria que es mejor instalar en GPU por sus cargas de trabajo sobre procesamiento de datos tan intensivas.
Fijaros que HBM4 ya está en camino, pero hasta 2025 no se sabrán sus especificaciones completas. De hecho, su lanzamiento se completaría en 2026-2027.
Estas memorias se caracterizan por apilarse verticalmente (de ahí que saquen tantos GB por paquete) y son caras de producir por los interposers que hay que usar de cara a interconectar una memoria con otra. Vamos, que fabricar una oblea con algún desperfecto es perder muchos dólares.
Te recomiendo las mejores tarjetas gráficas del mercado
¿Llegaremos a ver estandarizada alguna memoria HBM en GeForce?