AMD continúa con el desarrollo de la unidad de aceleración para IA para sus nuevos procesadores heterogéneos con NPU integrada para este tipo de cargas. Ahora ha llegado la segunda generación de la microarquitectura XDNA, con interesantes novedades y mejoras respecto a las dos generaciones anteriores que potencian las funciones Ryzen AI.
Índice de contenidos
La NPU (Neural Processing Unit), o unidad de procesamiento neuronal, han emergido como tecnologías cruciales en el avance de la inteligencia artificial y la informática moderna. Estas unidades están diseñadas específicamente para acelerar las tareas de IA, particularmente las redes neuronales profundas (Deep Neural Networks, DNN), que son fundamentales para una amplia gama de aplicaciones, desde el reconocimiento de imágenes hasta la traducción automática y los sistemas de chatbot.
Históricamente, las tareas de IA han sido ejecutadas por la CPU y la GPU. Sin embargo, a medida que crecía la complejidad y el tamaño de los modelos de IA, la necesidad de soluciones más eficientes y especializadas se hacía evidente. Así surgieron las NPUs, diseñadas desde cero para optimizar el rendimiento de las DNN y minimizar el consumo energético, aunque no dejan de ser unos procesadores dedicados, usados como aceleradores.
Las NPUs se diferencian de las CPU y las GPU en varios aspectos clave. Primero, están diseñadas para manejar operaciones en paralelo a gran escala, lo que es esencial para la manipulación eficiente de las DNN. Además, las NPUs emplean técnicas de gestión de la memoria altamente optimizadas para minimizar el tráfico de datos y reducir la latencia.
Una innovación significativa ha sido el uso de la representación de enteros dinámicos estocásticos (SDFXP) y la búsqueda activa de precisión por capas (LAPS). Estas técnicas permiten la formación de redes con baja precisión en bits, optimizando aún más el rendimiento y la eficiencia energética de estas unidades en las que se potencia las unidades de cálculo, especialmente las de tipo FMAC de baja precisión, las más usadas en aplicaciones de IA.
AMD, cuando creó Ryzen AI o su NPU, tuvo muy presente todo esto, y además también pensó sobre la reconfiguración y la minimización de la degradación de la precisión mediante técnicas específicas para sus futuros lanzamientos. El resultado base fue la unidad con microarquitectura XDNA 1. Una unidad con una capacidad de procesamiento que partía de los 10 TOPS.
XDNA básicamente es una matriz tipo mosaico (Tile) de motores de IA, cada Tile incluye un procesador vectorial, un procesador escalar, memoria para datos locales y memoria para código:
Te recomiendo leer más sobre la NPU en este artículo
La arquitectura XDNA 2 de AMD representa un salto significativo en el procesamiento de IA con respecto a la generación anterior. En este caso tenemos una arquitectura compuesta por:
Esto ha posibilitado que XDNA 2 tenga una capacidad de cómputo 5 veces superior, con el doble de eficiencia que XDNA 1. Eso se traduce en 50 TOPS, más que sus competidores de Intel, Qualcomm y Apple, y con una eficiencia fenomenal.
También te puede interesar leer nuestra guía con los mejores portátiles del mercado
Como se puede ver, la NPU XDNA 2 ha conseguido fantásticos resultados en comparación con la CPU y la iGPU. Concretamente, la carga de trabajo de IA se ejecuta 35x veces más rápido en la NPU respecto a la CPU, que a su vez es 8x veces más lenta que la iGPU. Por tanto, la NPU resulta ser hasta 4.3x más rápida en procesamiento de cargas de IA que la iGPU. Y, lo mejor de todo, superando la barrera de los 40 TOPS que se necesitan para funciones como Copilot para su ejecución en local.
Deja tus comentarios, siempre serán bienvenidos…
CHIEFTEC acaba de presentar dos nuevas cajas para PC, Visio y Visio Air con un…
Asus ZenWiFi BT8 es un sistema Mesh Wi-Fi 7 el cual se sitúa por debajo…
Qualcomm anuncia nuevos SoC Snapdragon X, pero no se trata de una nueva generación, sino…