Procesadores

XDNA 2: AMD muestra músculo en IA con su arquitectura de NPU

AMD continúa con el desarrollo de la unidad de aceleración para IA para sus nuevos procesadores heterogéneos con NPU integrada para este tipo de cargas. Ahora ha llegado la segunda generación de la microarquitectura XDNA, con interesantes novedades y mejoras respecto a las dos generaciones anteriores que potencian las funciones Ryzen AI.

Las bases de la NPU de AMD

La NPU (Neural Processing Unit), o unidad de procesamiento neuronal, han emergido como tecnologías cruciales en el avance de la inteligencia artificial y la informática moderna. Estas unidades están diseñadas específicamente para acelerar las tareas de IA, particularmente las redes neuronales profundas (Deep Neural Networks, DNN), que son fundamentales para una amplia gama de aplicaciones, desde el reconocimiento de imágenes hasta la traducción automática y los sistemas de chatbot.

Históricamente, las tareas de IA han sido ejecutadas por la CPU y la GPU. Sin embargo, a medida que crecía la complejidad y el tamaño de los modelos de IA, la necesidad de soluciones más eficientes y especializadas se hacía evidente. Así surgieron las NPUs, diseñadas desde cero para optimizar el rendimiento de las DNN y minimizar el consumo energético, aunque no dejan de ser unos procesadores dedicados, usados como aceleradores.

Las NPUs se diferencian de las CPU y las GPU en varios aspectos clave. Primero, están diseñadas para manejar operaciones en paralelo a gran escala, lo que es esencial para la manipulación eficiente de las DNN. Además, las NPUs emplean técnicas de gestión de la memoria altamente optimizadas para minimizar el tráfico de datos y reducir la latencia.

Una innovación significativa ha sido el uso de la representación de enteros dinámicos estocásticos (SDFXP) y la búsqueda activa de precisión por capas (LAPS). Estas técnicas permiten la formación de redes con baja precisión en bits, optimizando aún más el rendimiento y la eficiencia energética de estas unidades en las que se potencia las unidades de cálculo, especialmente las de tipo FMAC de baja precisión, las más usadas en aplicaciones de IA.

AMD, cuando creó Ryzen AI o su NPU, tuvo muy presente todo esto, y además también pensó sobre la reconfiguración y la minimización de la degradación de la precisión mediante técnicas específicas para sus futuros lanzamientos. El resultado base fue la unidad con microarquitectura XDNA 1. Una unidad con una capacidad de procesamiento que partía de los 10 TOPS.

XDNA básicamente es una matriz tipo mosaico (Tile) de motores de IA, cada Tile incluye un procesador vectorial, un procesador escalar, memoria para datos locales y memoria para código:

  • En el caso del procesador vectorial es de tipo SIMD (Single Instruction Multiple Data), es decir, es capaz de aplicar una misma instrucción u operación a múltiples datos.
  • El procesador escalar es de tipo VLIW (Very Long Instruction Word), que usa instrucciones muy largas y que incluyen una serie de operaciones implícitas optimizadas para IA.
  • Estos procesadores trabajan a 1,3 Ghz, y contienen un espacio para el programa y una memoria local.

Te recomiendo leer más sobre la NPU en este artículo

Mejoras en XDNA 2

La arquitectura XDNA 2 de AMD representa un salto significativo en el procesamiento de IA con respecto a la generación anterior. En este caso tenemos una arquitectura compuesta por:

  • AI Interconnect Engines (AIE): una red de AIE permite distribuir la carga de trabajo de manera eficiente, adaptándose a las necesidades específicas de cada tarea. Concretamente contiene 32 tiles, con un aumento del 12% en comparación con la generación anterior.
  • Flujo de datos en mosaico: minimiza las pérdidas de caché y mejora la gestión de la memoria para un rendimiento determinista. Ahora viene con doble de MAC por mosaico, lo que deja una mayor capacidad de procesamiento para tareas de IA complejas. También se ha multiplicado por 1.6x veces la memoria dentro del chip, para acceder más rápidamente y con menor consumo.
  • Interconexión programable: reduce la demanda de ancho de banda de memoria y permite una asignación eficiente de recursos.
  • Mayor flexibilidad: habilita el rendimiento en tiempo real para una amplia gama de tareas de inferencia de IA.
  • Black FP16: otra de las novedades tiene relación con la mejora de la precisión, reduciendo la carga sin sacrificar calidad de los resultados de las operaciones de 8-bit.

Esto ha posibilitado que XDNA 2 tenga una capacidad de cómputo 5 veces superior, con el doble de eficiencia que XDNA 1. Eso se traduce en 50 TOPS, más que sus competidores de Intel, Qualcomm y Apple, y con una eficiencia fenomenal.

También te puede interesar leer nuestra guía con los mejores portátiles del mercado

Rendimiento

Como se puede ver, la NPU XDNA 2 ha conseguido fantásticos resultados en comparación con la CPU y la iGPU. Concretamente, la carga de trabajo de IA se ejecuta 35x veces más rápido en la NPU respecto a la CPU, que a su vez es 8x veces más lenta que la iGPU. Por tanto, la NPU resulta ser hasta 4.3x más rápida en procesamiento de cargas de IA que la iGPU. Y, lo mejor de todo, superando la barrera de los 40 TOPS que se necesitan para funciones como Copilot para su ejecución en local.

Deja tus comentarios, siempre serán bienvenidos…

Recent Posts

  • Videoconsolas

PlayStation 6 AMD volvería a hacerse cargo del hardware, le habría ganado la pulseada a Intel

AMD seguiría siendo el fabricante del hardware para Sony, con PlayStation 6 utilizando un futuro…

8 horas atrás
  • Sistemas operativos

Windows 11 mejorará el rendimiento de las App modernas en hasta un 50%

Las aplicaciones modernas de Windows 11 van a recibir una buena mejora de rendimiento, según…

10 horas atrás
  • Discos duros y SSD

SLIMSAS: Qué es y en qué se diferencia del SAS tradicional

SlimSAS es un nuevo conector para unidades de almacenamiento y que puede ser muy interesante.…

11 horas atrás