La demanda está superando la oferta de tarjetas gráficas Nvidia debido, en gran medida, al éxito de ChatGPT, que está animando a gigantes tecnológicos a invertir en aceleradores de la IA, ya sea para ChatGPT o herramientas similares.
ChatGPT y otras herramientas de generación de lenguaje, imágenes y vídeo dependen en gran medida de la capacidad de procesamiento de la IA, donde Nvidia es uno de los protagonistas gracias a sus tarjetas graficas diseñadas para acelerar este tipo de tareas. El crecimiento de la demanda va a tener un impacto en la capacidad de producción de chips de GPU, que afectaría también a la capacidad de fabricar GPUs GeForce para el mercado de juegos.
Según informa FierceElectronics, ChatGPT (versión beta de Open.AI) se entrenó con 10.000 GPU de NVIDIA, pero desde que se hizo público, la demanda es cada vez más grande, por lo que se requiere de más poder de procesamiento. Recientemente, ChatGPT anunció su plan Plus de 20 dólares mensuales para asegurarse de que tienen un servicio siempre activo, incluso en horas punta. Actualmente, la cifra de GPU que se está utilizando asciende a 25.000.
«Es posible que ChatGPT u otros modelos de aprendizaje profundo puedan entrenarse o ejecutarse en GPU de otros fabricantes en el futuro. Sin embargo, en la actualidad, las GPU Nvidia se utilizan ampliamente en la comunidad de aprendizaje profundo debido a su alto rendimiento y compatibilidad con CUDA. CUDA es una plataforma de cálculo paralelo y un modelo de programación que permite realizar cálculos eficientes en las GPU Nvidia. Muchas librerías y marcos de aprendizaje profundo, como TensorFlow y PyTorch, son compatibles con CUDA y están optimizados para estas GPUs.
vía FierceElectronics
Sabemos que otros fabricantes como Microsoft y Google también están planeando integrar una tecnología similar a ChatGPT en sus motores de búsqueda, por lo que la demanda de gráficas aceleradores se va a acrecentar durante este año 2023.
Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado
Según las estimaciones de Forbes, Google necesitaría 512.820 servidores A100 HGX con un total de 4.102.568 GPU A100 para integrar esta tecnología en todas las consultas de búsqueda. Eso le costaría a Google una inversión de 100.000 millones de dólares.
Las arcas de Nvidia van a aumentar exponencialmente gracias a esto, aunque también afectaría a su capacidad de producir GPUs para juegos, ya que el verdadero negocio para el equipo verde no estaría allí, sino es aquellas GPUs para la IA, como A100 o H100. Os mantendremos informados.
SK Hynix anuncia la producción de sus memorias flash NAND más avanzadas hasta ahora, que…
Drift DRAIR200 es la silla ergonómica que estabas esperando si tu presupuesto es ajustado, pero…
Una nueva información sobre la RTX 5090 vuelve a encender las alarmas con respecto a…