Nvidia hizo la presentación oficial de la arquitectura de GPU Nvidia Blackwell para la inteligencia artificial. La compañía revela una arquitectura con un rendimiento de 5x en IA y la implementación de las memorias HBM3e de 192 GB de capacidad.
Durante el GTC 2024, Nvidia hizo la presentación de las GPUs Blackwell B100 y B200, donde el B200 es el que estaría ofreciendo el mayor rendimiento. Cada GPU contaría con 104 mil millones de transistores en cada matriz de cómputo que se fabrica en el nodo de proceso 4NP de TSMC, lo que son 208 mil millones de transistores unificando las dos GPUs.
Las ganancias de rendimiento por sobre la arquitectura Hopper son extraordinarias, hablamos de hasta cinco veces más rendimiento en inteligencia artificial. Debajo detallamos las ganancias de rendimiento descriptas por Nvidia.
B200 será la GPU más potente de la arquitectura Blackwell y contaría con una configuración de memoria de 192 GB HBM3e a través de un bus de 8192 bits y ofreciendo unos 8 TB/s de ancho de banda. Posee 160 unidades SM (20.480 núcleos), es compatible con la interfaz PCIe 6.0 y su consumo eléctrico es de 700W para el B100 y 1000W para el B200. Además, está contando con una red de 400 GbE.
Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado
Este anuncio acelerara la inteligencia artificial de muchos servicios en 2024 y en años venideros, no solo por las mejoras a nivel de arquitectura sobre Hopper (hasta 5 veces más de rendimiento en IA) tambien por la capacidad de memoria que es más del doble que en H100 (192 GB vs 80 GB), lo que permitiría que se ejecute LLM de mayor tamaño.
Pueden ver más información en la página oficial de Nvidia.
En esta guía te voy a explicar paso a paso cómo compartir películas con un…
AMD confirma que el modelo de referencia de la Radeon RX 9070 XT no se…
El Apple Watch se ha convertido en uno de los dispositivos más completos y funcionales…