Los AMD AI Accelerators traen la división de trabajo en los chips para priorizar tipos de cargas y maximizar rendimiento.
Fueron presentados en el evento Advancing AI dentro de las tarjetas gráficas AMD Radeon MI300, que buscaban competir con la H100 de NVIDIA. Aunque estas piezas se encuentran dentro de un chip ultratecnológico pensado para datacenters y superordenadores, es muy probable que llegue a escritorio y portátiles a través de la NPU.
Qué son los AMD AI Accelerators
Los AMD AI Accelerators son procesadores muy pequeños creados para realizar cálculos en operaciones vectoriales floating-point de 16-bit, operaciones multiplicadoras y una serie de cálculos matemáticos complejos.
Estos «aceleradores» usarían redes neuronales (Deep Learning) como las de GPT o Difusion Estable con el fin de realizar operaciones paralelamente y maximizar el rendimiento. Como veis, son piezas hardware dedicadas que tienen un propósito principal: la inteligencia artificial.
Y muy relacionada con estos procesadores, tenemos a la tecnología Matrix Core, que fue presentada con la Instinct MI100 y CDNA. Matrix Core tiene el fin de admitir operaciones de precisión mixta para acelerar el aprendizaje de la IA. Esto permite a las GPUs Instinct calcular eficientemente las operaciones, dependiendo del nivel de precisión.
Cuando hablamos de niveles o formatos de precisión, nos referimos a los Floating Point (FP64, FP32, FP12, BF16) o a INT8. Si os fijáis, tenemos distintas cifras, y conforme éstas sean más altas, lograremos un cálculo más preciso.
Sin embargo, para modelos Deep Learning no necesitamos una precisión brutal, sino que sirve con BF16 o INT8, reduciendo la carga de trabajo y mejorando el aprendizaje de la IA.
Por lo tanto, los AMD AI Accelerators serían el homólogo del Tensor Core: unas piezas hardware dedicadas a los trabajos IA. Trasladado al gaming, los Tensor Cores sí que vemos que hacen una función de maximizar FPS en las GPU gaming, pero los AMD AI Accelerators no se han implementado de la misma manera, enfocándose únicamente en la inteligencia artificial en tarjetas gráficas.
Usos en GPU
AMD los clasifica en 4 posibles usos:
- Juegos y streaming. Mejorar el streaming con mejoras de calidad aceleradas por IA y eliminando el ruido de fondo de forma inteligente.
- Computación IA. Para usarlos con los modelos IA más populares.
- Imagen y vídeo. Mejorar los flujos de trabajo y calidad en software Adobe, DaVinci o Blender.
- Desarrollo IA o Machine Learning. Aprovecharía el subsistema de memoria para ML local.
Lo que más nos podía interesar era maximizar rendimiento en forma de FPS a la mayoría de los jugadores, pero no se han centrado en ello para la IA.
En qué tarjetas gráficas tenemos AMD AI Accelerators
Principalmente, en las AMD Radeon RX 7000, así como en las AMD Instinct M100 en adelante.
Los AMD AI Accelerators están presentes en las AMD Radeon RX 7000 y en las últimas GPUs para datacenters de la marca. Pero, ¿para qué función gaming son útiles? Para generar contenido de forma automática, siempre y cuando los desarrolladores usen modelos de IA para la generación de contenido dentro del videojuego.
Enfoquémonos en los NPC de los videojuegos y sus interacciones o movimientos. Años atrás, veíamos que seguían un patrón ordenado por los desarrolladores; por ejemplo, estar sentado en un bar bebiendo sin parar. Con la llegada de la IA, la idea es que los NPC cobren «vida» e improvisen, y para poner en práctica esto, se tiene que generar un texto (orden o prompt) para desencadenar una acción visual (pedir otra cerveza, levantarse mareado, etc.).
¿Usan los AMD AI Accelerators en FSR? No, y deberían. Este ha sido el punto diferenciador de NVIDIA DLSS, que tanta ventaja le ha dado sobre FideltyFX Super Resolution.
Ya os adelanto que AMD ha pensado en estos aceleradores para centros de datos, al menos por ahora. Ojalá los implementen para tarjetas gráficas gaming y podamos aprovecharnos de su rendimiento vía FPS.
¿Por qué AMD no los utiliza para FSR?
Pues esto mismo le preguntaron a David Wang, el Vicepresidente de Ingeniería de AMD Radeon. Ante la pregunta de por qué AMD no hace uso de los AI Accelerators al igual que los Tensor Cores, respondió lo siguiente.
Esa es su estrategia de GPU, pero no creo que debamos tener la misma estrategia. NVIDIA está intentando activamente utilizar la tecnología IA incluso para operaciones que se pueden realizar sin ella.
Estamos enfocados en incluir las especificaciones que los usuarios quiere y necesitan para disfrutar de las GPU de consumo. De lo contrario, los usuarios están pagando por características que nunca se usan.
Sinceramente, parece que nos estén diciendo que no saben cómo implementar la IA en FSR de una manera muy sutil. ¿Cómo los jugadores no van a querer más FPS? Precisamente, es el principal beneficio que quieren obtener cuando aplicamos IA a las operaciones.
Hicimos una review a FSR 3, y no funcionaba mal, pero la cuestión es que todavía está lejos de DLSS 3. Cuando AMD logre implementar dignamente FSR 3 en muchos juegos, NVIDIA lanzará su DLSS 4 y vuelta a empezar. En lo que a desarrollo software respecta, es el talón de Aquiles de AMD.
Mi opinión es que NVIDIA creó DLSS basándose en el Deep Learning con pilar central, mientras que AMD no desarrolló FSR de la misma manera. Quizás, puede que ese sea el problema, ya que no es lo mismo añadirle IA a una tecnología ya creada, que basar la tecnología en IA desde un principio.
Ahora bien, FSR puede funcionar en todas las GPUs, y creo que por ahí van los tiros de la estrategia de AMD: no dejar a nadie tirado. El problema de DLSS 3 es que solo es compatible con lasRTX 4000 en adelante porque usan RT Cores y Tensor Cores de 3ª Gen, una decisión duramente criticada por AMD.
La IA, camino de ser la protagonista en los motores gráficos
Ya se ve en Unreal Engine 5, que usa la IA para generar contenido automáticamente en videojuegos, ¡hasta tienen un apartado de desarrollo en su web! Lo que se viene delante de nosotros es una auténtica revolución, pero a la vez un gran desafío para desarrolladores.
¿Os imagináis un juego en el que, conforme andamos, se va creando un mundo único para nosotros? El motor tiene todas las texturas y polígonos en su base de datos, solo tiene que crear objetos coherentes con ello, mientras progresamos en el juego.
El desafío pasa por implementar esto en multijugador, es decir, en los juegos que tienen campaña cooperativa. Puede que esto haya sido el motivo por el que Starfield es single player: cada mundo es único para los jugadores y genera un contenido determinado. Es decir, flora, fauna, minerales, entorno… totalmente diferenciados entre 2 juegos distintos, a pesar de ser Neptuno, por poner un ejemplo.
Gobernar todo este caos va a ser complicado, pero todas estas operaciones las van a tener que realizar unos procesadores, y los AMD AI Accelerators son los candidatos para ello. NVIDIA lo tiene fácil por su arquitectura montada, su hardware, etc., pero AMD va a tener las cosas más complicadas.
¿Por qué? NVIDIA es la reina del mercado IA, copando más del 70% de la cuota de mercado de chips IA. Ha sabido cómo implementar la IA para el beneficio de sus clientes, mientras que AMD intenta rascar ventas con las MI100 y MI300.
Conclusiones sobre los AMD AI Accelerators
Los aceleradores IA de AMD son el perfecto ejemplo de una gran idea y una mala ejecución, al menos en lo que respecta a las AMD Radeon RX 7000. Todas llevan estas piezas incorporadas, pero no las ponen a funcionar cuando usan FSR, o eso es lo que dijo el Vicepresidente Wang.
Igual es algo temporal, y cuando saquen la siguiente versión de FSR sí que incorporarán IA. Eso sí, esto puede traer como consecuencia que dicha versión no funcione en todas las GPUs AMD, al menos desde las RX 5000.
No podemos decir mucho más porque en AMD no han explicado el funcionamiento de los AI Accelerators de principio a fin.
Esperamos que os haya sido de ayuda esta información. Si tenéis dudas, podéis comentarlas abajo y os responderemos en breve.
Te recomendamos las mejores tarjetas gráficas del mercado
¿Qué opinas de estos aceleradores?