Tutoriales

NVIDIA Turing vs Ampere: comparativa con benchmarks y videojuegos

Si no sabes qué NVIDIA comprar, te traemos la comparativa entre RTX 2000 y RTX 3000 para que podáis ver el cambio de rendimiento de Turing a Ampere. Como avance, el aumento de FPS con Ray Tracing es espectacular, así que puede ayudarte a elegir la tarjeta gráfica.

NVIDIA promocionó el Ray Tracing con sus RTX 2000 (Turing), el cual bajaba mucho los FPS cuando activábamos esa opción, pero compensó con DLSS para hacer que el trazado de rayos fuese disfrutable. Dos años después, vinieron las NVIDIA RTX 3000 con Ampere, una arquitectura que suponía un cambio drástico de rendimiento y trajo la novedad de la memoria GDDR6X. Ahora, enfrentamos ambas generaciones para ver qué diferencias existen.

NVIDIA Turing, los comienzos del Ray-Tracing y DLSS

En septiembre de 2018, NVIDIA presentaba la arquitectura Turing como «la arquitectura GPU más avanzada del mundo«, impulsada para el mercado de los videojuegos, como para la computación de alto rendimiento (HPC), centros de datos y aplicaciones de IA.

Turing fusionaba la rasterización, el Ray Tracing a tiempo real, la IA y la simulación para los juegos en PC, pero para otros sectores también: creación de modelos 3D, industria cinematográfica, etc. Toda esta propuesta estaba garantizada mediante una GPU que se aprovechaba de una gran arquitectura y de memoria VRAM GDDR6 para el máximo rendimiento.

Con la aparición del Ray Tracing, también aterrizaban los RT Cores, que son núcleos enfocados a realizar operaciones de Ray Tracing de forma optimizada. Combinando estos RT Cores con la tecnología NVIDIA RTX, las RTX 2000 podían ofrecer una experiencia de trazado de rayos en tiempo real muy precisa, lo que mejoraba la experiencia gaming.

Decir que NVIDIA trabajó con Microsoft para traer las API DirectML (para IA) y DirectX RayTracing (DXR) para videojuegos. Esto permitía que los desarrolladores de juegos pudieran implementar esta tecnología como opcional en los ajustes gráficos, la cual solo podría ser aprovechada por la serie RTX 20. Como dato, os dejamos el rendimiento que ofrecía la RTX 2080 Ti:

  • 14.2 TFLOPs en FP32.
  • 28.5 TFLOPs en FP16.
  • 113.8 Tensor TFLOPs.
  • 10 Giga Rays/segundo.

Las GPUs NVIDIA con arquitectura Turing (Volta y RTX 2000) seguían un proceso de fabricación de 12nm FinFET de la mano de TSMC. Vamos a desglosar todas las novedades una a una para comprender mejor los cambios generacionales.

Turing SM, un nuevo multiprocesador

La arquitectura Turing estaba protagonizada por Turing SM, un multiprocesador que aumentaba la eficiencia en tareas de sombreado, mejorando en un 50% el rendimiento de CUDA Core en Pascal (GTX 1000). Las claves de esas mejoras se resumen en 2:

  • Turing SM añade una nueva ruta de datos independiente que ejecuta instrucciones al mismo tiempo que la ruta de datos matemática de punto flotante.
  • La ruta de memoria SM se rediseña para unificar la memoria compartida (caché de texturas y caché de carga de memoria). Traducido en datos, hay un ancho de banda 2 veces mayor y el doble de capacidad caché L1 disponible para cualquier trabajo.

Sin embargo, el hardware tiene un papel importante y NVIDIA comparó la generación Volta GV100 SM y Pascal GP10x:

  • Pascal:
      • 1 x SM por TPC.
      • 128 FP32 Cores por SM.
  • Turing:
      • 2 x SM por TPC.
      • 64 núcleos FP32.
      • 64 núcleos INT32.

De este modo, Turing SM permite ejecutar simultáneamente operaciones FP32 e INT32.

¿De qué se compone cada Turing SM? NVIDIA divide este multiprocesador en 4 bloques, y cada uno se compone de lo siguiente:

  • 16 núcleos FP32.
  • 16 núcleos INT32.
  • 2 Tensor Cores.
  • Programador warp.
  • Unidad de despacho.

Tensor Cores mejorados

Como pista, una de los grandes avances vistos en esta comparativa de las NVIDIA RTX 2000 vs RTX 3000 reside en los Tensor Cores. Empezando por la serie NVIDIA RTX 20, se mejoraron los Tensor Cores, siendo la Volta GV100 la primera en equiparlos.

NVIDIA añadió 2 modos de precisión: INT8 e INT4, idóneos para cargas de trabajo duras que requieren una precisión TOP (FP16 es compatible), ¿cómo ayudan estos núcleos en el rendimiento gaming? Posibilita la llegada del Deep-Learning a tiempo real en videojuegos por primera vez en la historia. Y es que los núcleos Tensor aceleran las funciones en IA de los servicios neuronales de NVIDIA NGX, los cuales mejoran los gráficos.

¿Os suena Deep Learning Super Sampling (DLSS)? Pues, es una de las funciones de NGX AI de NVIDIA. La novedad principal de estos núcleos mejorados está en la multiplicación matri-matriz y en el entrenamiento de redes neuronales. Esto ayuda a acelerar exponencialmente las operaciones matriciales y el Deep Learning, lo que se traduce en un aumento de FPS protagonizado por usar DLSS.

Memoria GDDR6

La memoria VRAM es una de las características más importantes dentro de una tarjeta gráfica, así que es importante contar con la última tecnología del momento. Como nos encuadramos en 2018, «lo último» era la GDDR6, completando la transición de la GDDR5X, ¿pero no había memoria HBM2 por aquel entonces?

Sí, pero NVIDIA descartó el uso de este tipo de memoria porque el proceso de apilado es muy caro y porque las arquitecturas que vemos en escritorio no la aprovechan del todo (como ya vimos en AMD). Así que, NVIDIA presentó Turing como la primera arquitectura en usar GDDR6, ideal para más velocidad y menos consumo.

Decir que NVIDIA rediseñó la interfaz de memoria para mejorar la temperatura y el voltaje, entre otros aspectos. Veíamos una velocidad de memoria de 14 Gbps y una mejora del 20% en eficiencia energética, si la comparamos con GDDR5X.

Ray Tracing

Sin duda, la tecnología que recibió mayor impulso en términos de marketing. Esta tecnología de renderizado fue gestada para mejorar el realismo de la iluminación de cada escena en relación con los objetos habidos en ella. Así, el Ray Tracing generaba reflejos, sombras e iluminación a tiempo real, permitiendo que la iluminación de la escena fuera cambiando dinámicamente conforme nos movíamos.

Anteriormente, NVIDIA iRay y el motor Ray Tracing Optix era una opción para diseñadores, pero el Ray Tracing a tiempo real y en alta calidad no fue posible de alcanzar con una sola GPU. Así que, nunca se llegó a utilizar en videojuegos porque se requiere una experiencia de 30 FPS como mínimo (los cuales se quedaron anticuados), y es que es una tecnología de renderizado que necesita potencia y optimización.

NVIDIA estuvo casi 10 años trabajando con varios equipos para traer esta tecnología a la familia GeForce y en sus gamas profesionales. Así que, el software NVIDIA RTX llegó a las GPUs Turing junto con los mencionados RT Cores. Sin embargo, Turing fue una familia «experimental» por varias razones:

  • Muy pocos videojuegos ofrecían soporte Ray Tracing a la salida de las RTX 2000.
  • El consumo de recursos de esta tecnología era tan alto que la RTX 2060 era incapaz de funcionar a más de 60 FPS con RTX activado.
  • Muchos usuarios se quejaron de que «no había diferencias notorias» entre activarlo o desactivarlo, en relación con el consumo de recursos que requería.

El Ray Tracing es posible gracias a la tecnología RTX, las bibliotecas de NVIDIA Optix, la API DXR y la API Vulkan Ray Tracing.

RT Cores

funcionamiento RT

Los RT Cores nacían para dar respuesta al Ray Tracing, y los encontrábamos en cada Turing SM. Su función es acelerar, pero, ¿el qué exactamente? El Ray Tracing sin aceleración de hardware necesita de miles de ranuras de instrucciones de software por rayo, lo que le convierte en un proceso computacionalmente costoso.

Esto lo haría inviable a tiempo real, así que los RT Cores pueden procesar todas las pruebas de cruce de BVH y de intersección de rayos y triángulos, evitando que el SM necesite miles de ranuras de instrucciones de software por rayo. Un RT Core está compuesto por 2 unidades especializadas:

  • La 1ª realiza pruebas delimitadoras.
  • La 2ª hace pruebas de intersección de rayos y triángulos.

Así que el funcionamiento sería el siguiente:

  • El SM lanza una sonda de rayos.
  • El RT Core realiza pruebas de recorrido de BVH y de intersección.
  • Devuelve un impacto (o ninguno) al SM.

Todo este proceso se traduce en que el SM se queda más desahogado de trabajo para poder enfocarse en otras tareas. Así que, el rendimiento en trazado de rayos es mayor en Turing gracias a los RT Cores. NVIDIA nos ponía el ejemplo con Pascal:

  • GTX 1080 Ti: 1.1 Giga Rays.
  • RTX 2080 Ti: más de 10 Giga Rays.

VirtualLink y NVLINK mejora a SLI

RTX 2080 Super

«El gigante verde» quiso aprovechar el auge de la Realidad Virtual para dotar a sus tarjetas gráficas de un puerto USB-C y soporte VirtualLink, que es el estándar de la industria de la realidad virtual (liderado por NVIDIA, Oculus, Valve, Microsoft y AMD).

El puerto USB-C es clave para poder conectar nuestros cascos de realidad virtual, aunque VirtualLink hace uso de un modo alternativo del que se aprovechan los auriculares de realidad virtual: energía, pantalla y datos. La novedad de VirtualLink supone que puede admitir 4 carriles HBR3 DisplayPort o 2 carriles HBR3 DisplayPort + 2 carriles SuperSpeed USB 3.0.

Por otro lado, veíamos NVLINK como un puente con mayor ancho de banda que mejora el puente SLI HB de Pascal. Básicamente, se hablan de posibilidades teóricas en relación a los FPS y resolución:

  • Veníamos de un SLI HB en Pascal, cuyo máximo rendimiento eran 4K a 60 FPS.
  • La RTX 2080, haciendo uso de NVLINK, daba la posibilidad de jugar a 4K a 144 Hz junto con Surround.

¿Cómo es esto posible? Antes de Pascal (GTX 900), las GPUs usaban una única interfaz de entrada/salida múltiple conocida como MIO para que una 2ª GPU traspasara su salida de frames renderizado a la GPU principal (la que está conectada al monitor).

Pascal mejoró el puente SLI con una interfaz MIO dual: más ancho de banda entre GPUs, salida de mayor resolución y varios monitores. Las RTX 2000 utilizaron NVLink en vez de interfaces MIO, y las diferencias son las siguientes:

  • Un enlace NVLink otorga un ancho de banda máximo de 25 GB/s entre ambas GPUs. Por tanto, 2 enlaces suponen 50 GB/s en cada dirección, o 100 GB/s bidireccionalmente.

El tema está en que la SLI bidireccional es compatible con Turing, pero las configuraciones SLI de 3-4 vías no.

Deep Learning Super Sampling (DLSS)

Terminamos de repasar Turing con una de las grandes novedades: su DLSS, el cual fue esencial para hacer viable el Ray Tracing en videojuegos. El problema residía en que el TAA es el anti-aliasing que más se utiliza, pero es difícil de llevar a cabo con precisión.

La solución del equipo de NVIDIA era optimizar las imágenes/texturas haciendo uso de la Inteligencia Artificial y el Deep Learning. Su objetivo era combinar imágenes ya renderizadas para producir un resultado de alta calidad. Así que desarrollaron una red neuronal profunda (DNN) para resolver esta problemática: Deep Learning Super-Sampling.

Le hemos dedicado mucho tiempo a esta tecnología en otros tutoriales, pero la explicamos brevemente:

  • Es una técnica de Inteligencia Artificial aplicada a juegos.
  • Se usa como filtro para suavizar los bordes de las texturas.
  • El DLSS captura frames o imágenes del juego en, por ejemplo, 4K para enseñarle en qué debe convertir la imagen.
  • Una vez entrenado, este proceso se repite para mejorar la calidad de imagen del juego.
  • Su otro beneficio sería aumentar los FPS, independientemente de si utilizamos Ray Tracing o no.

Explicado de forma más sencilla, es una tecnología que permite a la GPU renderizar a resoluciones muy inferiores para hacer un reescalado a la resolución final (de 720 a 1440p, por ejemplo). Para ello, hace uso de redes neuronales (de ahí que se haga referencia a la IA o al Deep Learning), lo que le permite realizar todo el trabajo de forma rápida y efectiva.

Para una tarjeta gráfica es más fácil renderizar a una resolución baja (720p o 1080p), que renderizar las texturas a 2K o 4K. Gracias al DLSS podemos jugar a más FPS, con o sin Ray Tracing.

NVIDIA Ampere, GDDR6X y más potencia

La arquitectura NVIDIA Ampere fue presentada en el GTC de 2020 (14 de mayo de 2020) por Jensen Huang, el CEO de NVIDIA. El objetivo fue presentar sus nuevas tarjetas gráficas profesionales NVIDIA A100, las cuales estrenarían la arquitectura Ampere. Estas GPUs van dirigidas a centros de datos, servidores, IA; al mundo profesional en general.

Para las RTX 3000 tuvimos que esperar hasta el 1 de septiembre de 2020, fecha en las que se presentaron las RTX 3090, RTX 3080 y RTX 3070 con 24 GB GDDR6X, 10 GB GDDR6X y 8 GB GDDR6 respectivamente. Todas las GPUs con esta arquitectura vienen fabricadas bajo un proceso de 8nm de Samsung, el cual está derivado de un proceso de 10 nm con el que ya trabajaban los coreanos.

Esta evolución ha permitido incrementar la densidad de transistores a 28.000 millones en el caso del GA102; por ende, tendremos más núcleos CUDA. Sí, un proceso más avanzado permite una mejora en la eficiencia, pero NVIDIA ha aprovechado todos los mm² de sus DIE para instalar más transistores, lo que se ha traducido en aumento de consumo.

En cuanto al hardware, hemos visto como NVIDIA ha aumentado los CUDA Cores, SM y RT Cores, pero los Tensor Cores se han reducido (aunque son de 3ª generación). Así vemos el cambio generacional:

RTX 2080

RTX 3080

CUDA Cores

2944

8704

Tensor Cores

368

272

RT Cores

46

68

SM

46

68

Memoria

8 GB GDDR6

10 GB GDDR6X

Hemos visto un aumento de rendimiento muy grande a nivel general, pero sobre todo en Ray Tracing. En el caso de los RT Cores (2ª generación), son mucho más rápidos, lo que permite sacar más FPS en los juegos, aunque a los gamers os importará más cómo se han mejorado los CUDA Cores.

Las NVIDIA RTX 3000 no solo mejoran a las RTX 2000 en número de núcleos, sino que eso es posible gracias a a la configuración SM llamada «2x FP32». Esto significa que la RTX 3080 llega a los 29.8 TFLOPs en FP32, mientras que la RTX 2080 Ti llegaba a 14.2 TFLOPs: más del doble de rendimiento. Vistos los cuellos de botella que producen los sombreadores, la solución para aumentar el rendimiento pasa por incrementar el número de núcleos CUDA.

Nos hemos extendido en Turing porque es la piedra del nuevo camino emprendido por NVIDIA, trayendo nuevo software y hardware al mercado. Igualmente, las novedades de Ampere vs Turing son las siguientes.

PCI-Express 4.0

La compatibilidad con PCIe 4.0 parecía el camino hacia el estrellato, pero poco después se descubrió que el impacto en FPS es prácticamente nulo. Dicho esto, se trata el primer aumento en el ancho de banda en PCI-Express desde la GTX 680. A través de PCIe 4.0 x16, las NVIDIA RTX 30 optan a 32 GB/s de ancho de banda en cada dirección.

Desde la implementación de PCIe 4.0 por parte de AMD en X470, muchos deseaban que las tarjetas gráficas aprovecharan ese ancho de banda para aumentar su rendimiento. Sin embargo, se ha demostrado que la diferencia de rendimiento entre PCIe 3.0 x16 y PCIe 4.0 x16 es poco más del 1%.

NVLink 3 y el adiós de SLI en 2021

 

Empezando por NVLink 3, la RTX 3090 lo trajo bajo el brazo como especificación estrella, ya que dobla el ancho de banda del NVLink que vimos en la RTX 2080 Ti. El máximo era 50 GB/s en una sola dirección, pero con NVLink 3 será 100 GB/s en una dirección, lo que significa 200 GB/s de forma bidireccional.

Respecto a SLI, parecía que NVIDIA mantendría una generación más su tecnología multi-GPU, pero no. A partir de enero, NVIDIA dejó de publicar drivers para las configuraciones SLI, dejando a los desarrolladores de videojuegos y programas la integración nativa.

Además, NVLink solo estará disponible en la RTX 3090 de escritorio, lo que significa que será la única GPU de todo Ampere que podrá hacer uso del famoso puente para conectar 2 GPUs en nuestra placa. El hecho de que se integre de forma nativa trae como consecuencia la posibilidad de que el juego que más nos guste no lo soporte.

Eso sí, aquellos que estéis pensando en usar 2 o más RTX 3090, espero que tengáis en cuenta que necesitaréis una gran fuente de alimentación.

RTX I/O

Una de las nuevas funciones de las NVIDIA 3000 es RTX I/O, una implementación de una API que permite la transmisión directa de activos desde la memoria de la GPU. De esta manera, el proceso se simplifica evitando a la CPU y yendo directamente a la GPU, lo que se traduce en una mejora de la latencia E/S, como en el rendimiento de la GPU.

Es Microsoft quien proporciona una API estándar, de modo que las RTX 30 pueden descomprimir activos del juego directamente. Al final, se logra que la CPUI esté más desahogada de otras tareas.

Memoria GDDR6X

Sin duda, una de las características estrella es la memoria GDDR6X fabricada por Micron, siendo la más rápida del mundo (según NVIDIA). Ésta permite velocidades de bus de memoria más altas, y, por ende, más ancho de banda. Dejando la teoría a un lado, estos son los datos que se logran:

RTX 2080 RTX 3080
Memoria 8 GB GDDR6 10 GB GDDR6X
Bus de memoria 256-bit 320-bit
Ancho de banda 448 GB/s 760.3 GB/s

En términos de marketing, tenemos un aumento del 36% en el ancho de banda de la memoria, el cual se va a al 39% si metemos a la RTX 3090 en la ecuación. Nos empieza a quedar claro que las GPUs con 8 GB van a ser «el nuevo mínimo» porque las AMD RX 6000 vienen con 16 GB GDDR6.

Eso sí, al contrario de lo que se piensa, NVIDIA ha equipado a la RTX 3060 con 12 GB GDDR6, pero su rendimiento será menor que sus hermanas mayores porque no equipa tantos CUDA Cores, por ejemplo.

HDMI 2.1 un acierto y VirtualLink fracasa

La presencia del puerto HDMI 2.1 era necesaria para conseguir aprovechar los nuevos monitores que salgan al mercado. Este nuevo estándar permite la posibilidad de transportar velocidades de hasta 48 Gbps, lo que supone una resolución y frecuencia de refresco mayor: hasta paneles 8K funcionando a más de 165 Hz.

Eso sí, HDMI 2.1 está presente en pocos monitores, pero era necesario incorporar un puerto que será el futuro y rivalizará con DisplayPort. Otra de las claves de HDMI 2.1 está en el VRR (Variable Refresh Rating) o tasa de refresco variable.

No obstante, VirtualLink parece no haber triunfado, ya que ningún fabricante de gafas de realidad virtual lo han utilizado (HTC, Valve, Oculus, etc.). Así que NVIDIA lo ha quitado de sus RTX 3000.

NVIDIA Reflex

Por último, NVIDIA nos quiso convencer con la idea de reducir la latencia total mediante la eliminación/reducción dinámica de la cola de renderizado. Esto sería posible con NVIDIA Reflex, cuya reducción dinámica era posible a través de mantener la CPU sincronizada con la GPU. No solo la latencia de muestreo del mouse se reducía, sino que la carga de la CPU también.

Donde más se aprovecha NVIDIA Reflex es en los juegos shooters, obteniendo reducciones de latencia que oscilan entre el 10% y el 50% al activar Reflex. Sin embargo, NVIDIA hacía énfasis en que la mejora se notaría en cualquier juego en el que la GPU tuviese una carga de trabajo alta.

Dicho esto, no se trata de una tecnología exclusiva de Ampere, sino que será disfrutable por todos los usuarios de NVIDIA GTX 900/1000/1600 y RTX 2000 y 3000.

Fuente de datos y banco de pruebas

Los datos usados son los recabados por nuestras reviews, aunque hemos usado de forma auxiliar las siguientes reviews:

Ficha técnica MSI RTX 2060 GAMING Z 6G MSI RTX 2060 Super Gaming X MSI RTX 2070 Armor MSI RTX 2070 Super Gaming X MSI RTX 2080 GAMING X TRIO

 

MSI RTX 2080 Super gaming X TRIO

 

MSI RTX 2080 Ti Gaming X Trio

 

RTX 3060 Ti

 

MSI RTX 3070 Gaming X Trio

 

MSI RTX 3080 Gaming X Trio

 

MSI RTX 3090 Gaming X Trio

 

Chipset TU106-300 TU106-410 TU106-400 TU104-410 TU104-400 TU104-450 TU102-300 GA104-200 GA104-300 GA102-200 GA102-300
Memoria 6 GB GDDR6 8 GB GDDR6 8 GB GDDR6 8 GB GDDR6 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6 12 GB GDDR6 8 GB GDDR6 10 GB GDDR6X 24 GB GDDR6X
Frecuencia 1365/1830 MHz 1470/1695 MHz 1410/1740 MHz 1605/1800 MHz 1515/1860 MHz 1515/1845 MHz 1755/1350 MHz 1410/1830 MHz 1500/1830 MHz 1440/1815 MHz 1395/1785 MHz
Núcleos 1920 CUDA

240 Tensor

30 RT

2176 CUDA

272 Tensor

34 RT

2304 CUDA

288 Tensor

36 RT

2560 CUDA

320 Tensor

49 RT

2944 CUDA

184 Tensor

64 RT

3072 CUDA

384 Tensor

48 RT

4352 CUDA

544 Tensor

68 RT

4864 CUDA

152 Tensor

38 RT

 

5888 CUDA

184 Tensor

46 RT

8704 CUDA

272 Tensor

68 RT

10496 CUDA

328 Tensor

82 RT

 

Velocidad de memoria 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 19 Gbps 19.5 Gbps
Bus de memoria 192 bits (336 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 256 bits (448 GB/s) 320 bits (760 GB/s) 384 bits (936.2 GB/s)
TDP 160 W 175 W 185 W 215 W 215 W 250 W 250 W 200 W 220 W 320 W 350 W
Tamaño y peso 247 x 129 x 52 mm

957 g

248 x 128 x 52 mm

981 g

295 x 140 x 51 mm

1177 g

300 x 130 x 55 mm

1421 g

327 x 140 x 55.6 mm

1553 g

328 x 140 x 55.6 mm

1531 g

327 x 140 x 55.6 mm

1870 g

323 x 140 x 56 mm

1452 g

323 x 140 x 56 mm

1441 g

323 x 140 x 56 mm

1565 g

323 x 140 x 56 mm

1565 g

Más abajo, veréis que hemos puesto las RTX 3060 Ti y RTX 3070 entre la gama alta de Turing y Ampere para que veáis los aumentos de rendimiento mejor. Además, los datos de la RTX 3060 Ti pertenecen al modelo Founders Edition, que son ligeramente inferiores al modelo MSI de postín.

Benchmarks sintéticos

Solo hemos recogido los datos de 3 pruebas sintéticas, ya que cuando analizamos una GPU gaming nos enfocamos en los videojuegos, que es donde el usuario va a ver el cambio de rendimiento. Así que os traemos 3 pruebas que plasman bien los cambios de rendimiento:

  • Fire Strike y Fire Strike Ultra.
  • Time Spy.
  • VRMark Orange Room.

Empezando por Fire Strike, vemos a las RTX 3000 muy por delante de las RTX 2000, aunque en el test Ultra vemos como la RTX 2080 se cuela como la 3ª en discordia.

Pasamos a Time Spy, y vemos que la RTX 3070 se coloca por delante de toda la familia Turing, incluida la RTX 2080 Ti. Eso sí, la RTX 3060 Ti se queda por detrás de la última y supera por poco a la RTX 2080 Super. Destacar el rendimiento de la RTX 3090, rompiendo la barrera de los 20.000 puntos.

Terminamos con la prueba de realidad virtual VRMark, la cual da la victoria a una RTX 3070 en forma de sorpresa. En este test, las RTX 2000 se llegan a colocar por delante de las NVIDIA RTX 3000, lo que nos sorprende bastante, ¿NVIDIA habrá dejado de lado la realidad virtual en Ampere?

Pruebas gaming: NVIDIA RTX 2000 vs 3000

Llegamos al punto que más os gusta, y con razón. Hay que tener en cuenta que los datos recopilados tienen distintos contextos, ya que al principio no habían casi títulos con Ray Tracing. Esta tecnología ha explotado en los 2 últimos años, y la han incorporado muchos más juegos que en 2018-2019.

Así que solo hemos recopilado resultados registrados en juegos sin Ray-Tracing, que son los siguientes:

  • Shadow of the Tomb Raider.
  • Far Cry 5.
  • DOOM 2016.
  • Final Fantasy XV.
  • Deus Ex: Mankind.

Para hacer más énfasis, han sido probados en los ajustes gráficos máximos:

  • Final Fantasy XV, standard, TAA, DirectX 11
  • DOOM, Ultra, TAA, Open GL 4.5
  • Deus EX Mankind Divided, Alto, Anisotropico x4, DirectX 11
  • Far Cry 5, Alto, TAA, DirectX 12
  • Shadow of the Tomb Rider, Alto, TAA + Anisotropico x4, DirectX 12 (sin DLSS)

1080p

Tomb Raider abre la veda de las comparativas entre las NVIDIA RTX 2000 vs RTX 3000, la cual se salda con una primera victoria para Ampere, cuyas GPUs se posicionan delante de todas las antecesoras.

Pasando a Far Cry 5, vemos un resultado atípico en la RTX 3090 y un gran rendimiento de la gama media de la serie RTX 30 de NVIDIA. Gana la RTX 3070 por 2 FPS más, pero las RTX 2000 de gama alta no se defienden mal, especialmente la RTX 2070 Super.

Aquí, las diferencias las vemos a partir de la RTX 3080, dejando claro que la memoria GDDR6X es un gran avance. Por lo demás, resultados ganadores para Ampere, pero no muy lejanos de alguna GPU Turing.

Final Fantasy XV se le da fatal a la serie RTX 20, y las Ampere sacan toda la artillería para distanciarse a muchos FPS de diferencia.

Terminamos con Deus Ex, un título que nos da resultados muy dispares e irregulares en las RTX 2000, pero en las NVIDIA RTX 3000 se demuestra el gran trabajo de Ampere. Quizás, es el juego en el que más diferencia vemos entre ambas.

1440p

Cuando subimos la resolución, Turing cae en picado en este NVIDIA RTX 3000 vs 2000, especialmente las gamas RTX 2070 y 2060. Se corrobora que la RTX 2070 Super fue un modelo vitaminado muy acertado en relación calidad-precio, ya que consigue FPS muy similares a la RTX 2080.

Generalmente, Ampere ha demostrado un rendimiento superior en 1080p, pero este test demuestra de nuevo su superioridad. Da igual que la RTX 3070 o la RTX 3060 Ti tengan 8 GB GDDR6 y no los 11 GB GDDR6 de la RTX 2080 Ti: la superan con facilidad. La RTX 3080 vuelve a dar en el blanco y se lleva la victoria.

DOOM 2016 es un juego muy bien optimizado y esta es una de las pruebas. Estamos ante un caso excepcional, ya que la RTX 3080 de MSI gana la batalla con 182 FPS. Llama la atención el rendimiento de la RTX 3070, que se coloca 4ª en todo el listado.

Volvemos a la normalidad con la RTX 3090 en cabeza y Turing muy por debajo, aunque la RTX 2080 Ti sobrevive como puede, pero contra la RTX 3060 Ti. Antes de lanzarse NVIDIA Ampere, se decía que la RTX 3070 equivaldría a la RTX 2080 Ti: dichas informaciones no iban mal encaminadas.

Deus Ex es un juego que favorece a Ampere, viendo FPS irregulares en Turing. Cualquier de las NVIDIA 3000 expuestas supera a las RTX 2000, dejando claro el aumento de rendimiento. Volvemos a hacer hincapié en que la compra de una RTX 3070 es una gran opción.

2160p

Subimos a 4K para ver el comportamiento de las NVIDIA RTX 3000 y 2000, el cual deja bastante mal a la gama media y baja de Turing. Las RTX 3060 Ti y 3070 se defienden por encima de los 60 FPS y las RTX 3080 y 3090 van sobradas, como casi siempre.

Far Cry 5 es más benévolo con las RTX 2000 de gama alta, pero solo con el modelo de 11 GB GDDR6 (2080 Ti). Parece que este título recompensa tener más memoria VRAM, como vemos en las RTX 3080 y 3090. Por el contrario, los modelos más discretos no llegan ni a los 50 FPS.

DOOM 2016 da un poco de respiro a las RTX 2080 Super y Ti, quedándose por debajo la RTX 3060 Ti. Queda claro que la GDDR6X es una memoria espectacular porque la 3080 consigue 31 FPS más con 1 GB menos que la RTX 2080 Ti.

Aún así, parece que «la culpable» es Ampere porque la RTX 3070 viene con 8 GB GDDR6, pero con una arquitectura de otro mundo.

Encontramos resultados irregulares en Final Fantasy XV, un juego que deja como 3ª GPU a la MSI RTX 2080 GAMING X TRIO, por delante de los modelos vitaminados y de la RTX 3070. Es otro caso extraordinario que se sale fuera de lo normal.

Definitivamente, terminamos con Deus Ex, un título muy exigente que da 60 FPS en la RTX 3070 a duras penas. Será difícil jugarlo en la gama media-baja de NVIDIA Ampere, pero más aún en Turing.

Promedios de FPS

En nuestras comparativas solemos poner los promedios para dar una idea general del rendimiento de cada GPU en cada resolución. Las NVIDIA RTX 3000 dan un repaso a las RTX 2000, superando la gama media (3060 Ti o 3070) a la gama alta de Turing (RTX 2080). Curiosamente, la MSI RTX 2070 SUPER GAMING X tiene el mejor promedio de RTX 2000.

La subida a 1440p le cuesta a la RTX 3060 Ti, pero las demás GPUs NVIDIA 3000 van sobradas. La cosa cambia en las RTX 2000, en las que vemos que no tendría mucho sentido comprar una RTX 2080 vitaminada.

El promedio de FPS en 4K sigue la misma línea, pero muestra menores FPS en cada una de las GPUs. Los 11 GB GDDR6 de la RTX 2080 Ti le sirven para ponerse a una diferencia de menos de 10 FPS en comparación con la RTX 3070. Aún así, Ampere sigue siendo muy superior.

Consumo y temperaturas

Empezando por el consumo, vemos que la RTX 3090 es la que más fuente de alimentación va a necesitar, seguida de la RTX 3080. En general, vemos un consumo más moderado en Turing, exceptuando a la RTX 2080 Super y a la RTX 2070 Armor. Así que, el consumo de Ampere es superior.

El duelo entre NVIDIA 3000 y 2000 termina con las temperaturas en reposo y carga. En general, nos llama la atención las temperaturas de los modelos Trio, los cuales equipan 3 ventiladores y deberían ofrecer una mayor refrigeración.

Al contrario de lo que dicta la lógica, las más calientes son las RTX 2080 Ti y la 3070 Trio, seguidas de 2 Trio más: la 3080 y la 2080 Super. Destacar la refrigeración del modelo FE de la RTX 3060 Ti.

Por tanto, NVIDIA 3000 consume más, pero no va correlacionado con una temperatura mayor, siendo la RTX 3090 una de las GPUs más frescas.

Conclusiones

Como el análisis ha sido muy extenso, prefiero ahorraros tiempo y deciros qué conclusiones extraemos de forma esquemática:

  • Turing es la arquitectura más innovadora, pero Ampere es la más optimizada y la que debería haber sido Turing desde un comienzo; al menos en lo que a Ray Tracing se refiere.
  • Ampere parece haber abandonado la realidad virtual y la posibilidad de SLI se reduce a la RTX 3090.
  • La aparición del GDDR6X es la clave para el futuro, vista la potencia de la gama alta de NVIDIA 3000.
  • Ampere trae mejoras de hardware y software que le permiten dar ese aumento de rendimiento soñado.
  • Dicho aumento de rendimiento se ve claramente en las pruebas sintéticas y gaming.
  • Pese a lo que se creía en un momento, las NVIDIA RTX 30 son igual de calientes que la serie RTX 20.
  • El consumo de Ampere es notablemente superior, lo que se traduce en tener una fuente de alimentación con 650 W como mínimo.

Ante esto, ¿cuál comprar? Vistos los resultados, podríamos decir que las GPUs más interesantes de Turing son las RTX 2070 Super y las RTX 2080 Super o Ti. Vamos al mercado en busca de stock y vemos lo siguiente.

Podría decirse que la mejor compra estaría entre esa RTX 2080 Super con refrigeración líquida o una RTX 2080 Ti… pero, ¿gastarnos 400-500€ en una GPU de generación anterior? Veamos qué precios tienen las NVIDIA 3000.

No hay rastro de las NVIDIA 3000, lo que es preocupante y pone en una gran tesitura al comprador, ¿qué comprar? Pues, si me pongo en vuestro lugar, valoraría la urgencia que tuviese en comprar una GPU. Si fuese urgente, me tendría que ir a una GPU Turing porque es lo que queda, preferiblemente los modelos ya mencionados.

De lo contrario, aconsejaría esperar a que vayan renovando stock para poder comprar la GPU que más se adapte a nosotros. Habéis visto que la escasez no solo afecta a las NVIDIA 3000, sino también a Turing, una familia que NVIDIA quiso descontinuar con la salida de Ampere.

Por otro lado, si queréis una RTX 3000 sí o sí, atentos a los PCs premontados o a los portátiles porque ahí sí que encontraremos el stock que no vemos por unidad de componente. En 2020 y a inicios de 2021, las tiendas donde más RTX 3000 se pueden encontrar son en eBay y StockX (cuidado con aduanas). Eso sí, todos los modelos tiene sobreprecio.

Te recomendamos las mejores tarjetas gráficas del mercado

Esperamos que os haya sido de ayuda esta comparativa. Si tenéis alguna duda, podéis comentar abajo y os ayudaremos en seguida. ¿Cuál es vuestro veredicto? ¿Consideráis qué una RTX 2000 es una mala compra?

Recent Posts

  • Hardware

Aprovecha las ofertas del Black Friday de Abysm

Abysm es una de las muchas marcas que celebran el Black Friday a lo grande.…

38 mins atrás
  • Android

YouTube traducirá contenidos en tiempo real usando IA

YouTube se prepara para lanzar una función que va a cambiar la forma en la…

1 hora atrás
  • Discos duros y SSD

ASUS TUF Gaming A2: Carcasa SSD para creadores de contenido y gamers

ASUS está lanzando la carcasa SSD TUF Gaming A2, que vendría a ser un dispositivo…

2 horas atrás