La IA es cara y el suministro de HBM3e no es sencillo, así que NVIDIA tendrá los 3 proveedores a su disposición para conseguir los 24 GB que necesita.
Todo sea por la IA, y esperemos que no sea una burbuja que termine explotando porque NVIDIA se iría a la bancarrota. Apilar verticalmente memoria RAM no es sencillo, a pesar de que eliminemos los cuellos de botella de consumo. Fabricarlas es muy complejo, por lo que el ritmo de producción marcado por la marca es insostenible con solo un fabricante, ¡necesita a los 3!
Sería una de las pocas veces que Samsung, SK hynix y Micron se unen conjuntamente para fabricarle la misma tecnología a una sola empresa: NVIDIA. Esta tecnología, según TrendForce, sería HBM3 y el fin está claro: lograr una cadena de suministro sólida.
Dejar a las empresas sin stock no es negociable, y los pasos están marcados:
¿Por qué HBM3e? Porque es lo último en memoria VRAM, por no hablar de que elimina cuello de botella en el ancho de banda y consumen menos energía. De momento, es una memoria que es mejor instalar en GPU por sus cargas de trabajo sobre procesamiento de datos tan intensivas.
Fijaros que HBM4 ya está en camino, pero hasta 2025 no se sabrán sus especificaciones completas. De hecho, su lanzamiento se completaría en 2026-2027.
Estas memorias se caracterizan por apilarse verticalmente (de ahí que saquen tantos GB por paquete) y son caras de producir por los interposers que hay que usar de cara a interconectar una memoria con otra. Vamos, que fabricar una oblea con algún desperfecto es perder muchos dólares.
Te recomiendo las mejores tarjetas gráficas del mercado
¿Llegaremos a ver estandarizada alguna memoria HBM en GeForce?
Drift DRAIR200 es la silla ergonómica que estabas esperando si tu presupuesto es ajustado, pero…
Una nueva información sobre la RTX 5090 vuelve a encender las alarmas con respecto a…
Las ganancias de Nvidia durante el tercer trimestre de 2024 han superado todas las expectativas,…