Nvidia hizo la presentación oficial de la arquitectura de GPU Nvidia Blackwell para la inteligencia artificial. La compañía revela una arquitectura con un rendimiento de 5x en IA y la implementación de las memorias HBM3e de 192 GB de capacidad.
Durante el GTC 2024, Nvidia hizo la presentación de las GPUs Blackwell B100 y B200, donde el B200 es el que estaría ofreciendo el mayor rendimiento. Cada GPU contaría con 104 mil millones de transistores en cada matriz de cómputo que se fabrica en el nodo de proceso 4NP de TSMC, lo que son 208 mil millones de transistores unificando las dos GPUs.
Las ganancias de rendimiento por sobre la arquitectura Hopper son extraordinarias, hablamos de hasta cinco veces más rendimiento en inteligencia artificial. Debajo detallamos las ganancias de rendimiento descriptas por Nvidia.
B200 será la GPU más potente de la arquitectura Blackwell y contaría con una configuración de memoria de 192 GB HBM3e a través de un bus de 8192 bits y ofreciendo unos 8 TB/s de ancho de banda. Posee 160 unidades SM (20.480 núcleos), es compatible con la interfaz PCIe 6.0 y su consumo eléctrico es de 700W para el B100 y 1000W para el B200. Además, está contando con una red de 400 GbE.
Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado
Este anuncio acelerara la inteligencia artificial de muchos servicios en 2024 y en años venideros, no solo por las mejoras a nivel de arquitectura sobre Hopper (hasta 5 veces más de rendimiento en IA) tambien por la capacidad de memoria que es más del doble que en H100 (192 GB vs 80 GB), lo que permitiría que se ejecute LLM de mayor tamaño.
Pueden ver más información en la página oficial de Nvidia.
CHIEFTEC acaba de presentar dos nuevas cajas para PC, Visio y Visio Air con un…
Asus ZenWiFi BT8 es un sistema Mesh Wi-Fi 7 el cual se sitúa por debajo…
Qualcomm anuncia nuevos SoC Snapdragon X, pero no se trata de una nueva generación, sino…