En la era de los ordenadores gaming, la tarjeta gráfica ha cobrado tanta o casi más importancia que la CPU. De hecho, muchos usuarios evitan comprar potentes CPU para invertir el dinero en este importante componente que se encarga de procesar todo lo que tiene que ver con texturas y gráficos. Pero, ¿cuánto sabes acerca de este hardware? Pues aquí te lo explicamos todo, o al menos todo lo que consideramos más importante.
Índice de contenidos
Sin duda el término más utilizado para denominar a las GPU es el de tarjeta gráfica, aunque no es exactamente lo mismo y lo explicaremos. Una GPU o Graphics Processing Unit es básicamente un procesador construido para manejar gráficos. El termino obviamente suena muy similar al de CPU, por lo que es importante diferenciar ambos elementos.
Cuando estamos hablando de una tarjeta gráfica, estamos hablando realmente del componente físico. Éste está construido a partir de un PCB independiente a la placa base y provista de un conector, normalmente PCI-Express con el que irá conectada a la propia placa base. En esta PCB tenemos instalada la GPU, y además la memoria gráfica o VRAM junto a componentes como VRM, puertos de conexión y el disipador con sus ventiladores.
El gaming no existiría si no fuera por las tarjetas gráficas, especialmente si nos referimos a ordenadores o PC. En los inicios, todos sabréis que los ordenadores no contaban con interfaz gráfica, tan solo teníamos una pantalla en negro con un promt para introducir comandos. Lejos quedan esas funciones tan básicas encontrándonos ahora en la era gaming, en la que tenemos equipos con una interfaz gráfica perfecta y en enormes resoluciones que nos permiten manejar entornos y personajes casi como si de la vida real se tratase.
Para hablar de tarjetas gráficas con propiedad, primero debemos saber qué nos aportan éstas y por qué son tan importantes en la actualidad. Hoy día, no podríamos concebir un ordenador gaming sin una CPU y una GPU separados físicamente.
Aquí lo tenemos bastante sencillo, porque ya todos nos podremos hacer una idea de qué hace el microprocesador en un ordenador. Es la unidad central de procesamiento, por ella pasan todas las instrucciones que generan los programas y gran parte de las que mandan los periféricos y el propio usuario. Los programas están formados por una sucesión de instrucciones que se irán ejecutando para generar una respuesta en función de un estímulo de entrada, podrá ser un simple clic, un comando, o el propio sistema operativo.
Ahora viene un detalle que debemos recordar cuando veamos qué es la GPU. La CPU está compuesta de núcleos, y de un gran tamaño podemos decir. Cada uno de ellos es capaz de ejecutar una instrucción tras otra, mientras más núcleos, pues más instrucciones a la vez se podrán ejecutar. En un PC hay muchísimos tipos de programas, y muchísimos tipos de instrucciones muy complejas y divididas en varias etapas. Pero lo cierto es que un programa no genera una gran cantidad de estas instrucciones de forma paralela. ¿Cómo nos aseguramos que la CPU “entienda” cualquier programa que instalemos? Lo que necesitamos son pocos núcleos, muy complejos, y que sean muy veloces para ejecutar las instrucciones rápidamente, así notaremos que el programa va fluido y responde a lo que nosotros le pedimos.
Estas instrucciones de forma básica se reducen a operaciones matemáticas con números enteros, operaciones lógicas y también algunas operaciones en coma flotante. Estas últimas son las más complicadas ya que se trata de números reales muy grandes que necesitan ser representados en elementos más compactos usando notación científica. Apoyando la CPU está la memoria RAM, un almacenamiento rápido que guarda los programas en ejecución y sus instrucciones para enviarlas por un bus de 64 bits hacia la CPU.
Precisamente la GPU está muy relacionada con estas operaciones en coma flotante de las que hemos hablado anteriormente. De hecho, un procesador gráfico prácticamente se pasa todo el tiempo realizando este tipo de operaciones, ya que tienen mucho que ver con las instrucciones gráficas. Por ello, muchas veces recibe el nombre de coprocesador matemático, de hecho hay uno dentro de las CPU, pero mucho más simple que la GPU.
¿De qué está compuesto un juego? Pues fundamentalmente del movimiento de píxeles gracias a un motor gráfico. No es más que un programa centrado en emular un entorno o mundo digital en donde nos movemos como si del nuestro se tratase. En estos programas la mayor parte de las instrucciones tienen que ver con píxeles y su movimiento para formar texturas. A su vez estas texturas tienen color, volumen 3D y propiedades físicas de reflexión de luz. Todo esto, son básicamente operaciones en coma flotante con matrices y geometrías que debe hacerse de forma simultánea.
Por ello, una GPU no tiene 4 ni 6 núcleos, sino miles de ellos, para hacer todas estas operaciones específicas de forma paralela una y otra vez. Claro, estos núcleos no son tan “inteligentes” como los de la CPU, pero pueden hacer muchísimas más operaciones de este tipo a la vez. La GPU también tiene su propia memoria, la GRAM, que es mucho más rápida que la memoria RAM normal. Tiene un bus mucho más grande, entre 128 y 256 bits para enviar mucha mayor cantidad de instrucciones a la GPU.
En el video que os dejamos enlazado, los cazadores de mitos emulan el funcionamiento de una CPU y una GPU y en cuanto a su cantidad de núcleos a la hora de pintar un cuadro.
En este punto ya habréis pensado que en los ordenadores gaming también influye la CPU en el rendimiento final del juego y sus FPS. Evidentemente, y es que hay muchas instrucciones que corren por cuenta de la CPU.
La CPU se encarga de enviar datos en forma de vértices a la GPU, para que esta “entienda” qué trasformaciones físicas (movimientos) debe hacer a las texturas. A esto se le llama Vertex Shader o físicas de movimiento. Tras esto, la GPU obtiene información sobre cuáles de estos vértices serán visibles, haciendo el denominado clipping de píxeles mediante rasterización. Cuando ya sabemos la forma y su movimiento, entonces es turno para aplicar las texturas, en Full HD, UHD o cualquier resolución, y sus correspondientes efectos, sería el proceso de Pixel Shader.
Por esto mismo motivo, mientras más potencia tenga la CPU, más instrucciones de vértices podrán mandar a la GPU, y mejor trabará ésta. Entonces la diferencia clave de estos dos elementos es en nivel de especialización y el grado de paralelismo en el procesado para la GPU.
Ya hemos visto qué es una GPU y su función en un PC, y relación con el procesador. Pero no es el único elemento existente que es capaz de manejar gráficos 3D, y por ello tenemos las APU o Accelerated Processor Unit.
Este término lo inventó AMD para denominar sus procesadores con una GPU integrada en el mismo encapsulado. Efectivamente, esto significa que dentro del propio procesador tenemos un chip o mejor dicho, chipset compuesto por varios núcleos que es capaz de trabajar con gráficos 3D de igual forma que la hace una tarjeta gráfica. De hecho mucho de los procesadores actuales cuentan con este tipo procesador, denominado IGP (Integrated Graphics Processor) dentro de sí mismo.
Pero claro, a priori no podemos comparar el rendimiento de una tarjeta gráfica con miles de núcleos internos con un IGP integrado dentro de la propia CPU. Así que su capacidad de procesamiento sigue siendo muy inferior, en términos de potencia bruta. A esto le sumamos el hecho de no tener una memoria dedicada tan rápida como la GDDR de las tarjetas gráficas, bastándose con parte de la memoria RAM para su gestión gráfica.
A las tarjetas gráficas independientes las llamamos tarjetas gráficas dedicadas, mientas que a las IGP le denominamos tarjetas gráficas internas. Los procesadores Intel Core ix tienen casi todos ellos una GPU integrada denominada Intel HD/UHD Graphics, excepto los modelos con la”F” al final. AMD hace lo propio con algunas de sus CPU, concretamente los Ryzen de la serie G y los Athlon, con gráficos denominados Radeon RX Vega 11 y Radeon Vega 8.
Lejos quedan los antiguos ordenadores de solo texto a los que tenemos ahora, pero si algo ha estado presente en todas las épocas es el afán por crear mundos virtuales cada vez más detallados para sumergirnos en su interior.
En los primeros equipos de consumo general con procesadores Intel 4004, 8008 y compañía, ya teníamos tarjetas gráficas, o algo parecido. Éstas solo se limitaban a interpretar el código y plasmarlo en una pantalla en forma de texto plano de unas 40 u 80 columnas, y por supuesto en monocromo. De hecho, la primera tarjeta gráfica se denominaba MDA (Monocrome Data Adapter). Tenía una RAM propia de nada menos que 4 KB, para representar perfectos gráficos en forma de texto plano a 80×25 columnas.
Tras esto, vinieron las tarjetas gráficas CGA (Color Graphics Adapter), en 1981 IBM comenzó a comercializar la primera tarjeta gráfica a color. Esta era capaz de representar 4 colores simultáneamente de una paleta de 16 interna a una resolución de 320×200. En modo texto era capaz de elevar la resolución a 80×25 columnas o lo que es igual 640×200.
Seguimos avanzando, con las HGC o Hercules Graphics Card, ¡el nombre promete! Una tarjeta monocromática que elevó la resolución a 720×348 y que era capaz de trabajar junto a una CGA para tener hasta dos salidas de video distintas.
O mejor dicho EGA, Enharced Graphics Adapter que se creó en 1984. Esta sí fue la primera tarjeta gráfica propiamente dicha, capaz de trabajar con 16 colores y a resoluciones de hasta 720×540 para los modelos de ATI Technologies, os suena ¿verdad?
En 1987 se produce una nueva resolución, y se abandona el conector ISA de vídeo para adoptar el puerto VGA (Video Graphics Array) denominados también Sub15-D, un puerto serie analógico que se ha utilizado hasta no hace mucho para los CRT e incluso paneles TFT. Las nuevas tarjetas gráficas elevaban su paleta de colores a los 256, y su memoria VRAM a los 256KB. En esta época los juegos de ordenador comenzaron a desarrollarse con mucha más complejidad
Fue en 1989 cuando las tarjetas graficas dejaron de utilizar paletas de colores y comenzaron a utilizar la profundidad de color. Con el estándar VESA como conexión a la placa base, el bus se ampliaba a los 32 bits, así que ya eran capaces de trabajar con varios millones de colores y resoluciones de hasta 1024x768p gracias a los monitores con el puerto SuperVGA. Tarjetas tan emblemáticas como la ATI Match 32 o Match 64 con una interfaz de 64 bits fueron de las mejores de la época.
El estándar VESA era un bus endemoniadamente grande, así que en 1993 evolucionó al estándar PCI, el que tenemos en la actualidad con sus distintas generaciones. Éste nos permitía tarjetas más pequeñas, y muchos fabricantes de unieron a la fiesta como Creative, Matrox, 3dfx con sus Voodoo y Voodoo 2, y una tal Nvidia con sus primeros modelos RIVA TNT y TNT2 lanzadas en 1998. En ese entonces aparecieron las primeras librerías específicas para aceleración 3D como son DirectX por parte de Microsoft y OpenGL de Silicon Graphics.
Pronto el bus PCI se quedó pequeño, con tarjetas capaces de direccionar 16 bits y gráficos 3D a una resolución de 800x600p, por lo que se creó el bus AGP (Advanced Graphics Port). Este bus presentaba una interfaz similar al PCI, de 32 bits pero aumentando su bus en 8 canales adicionales para comunicarse con la memoria RAM más rápidamente. Su bus trabajaba a 66 MHz y 256 Mbps de ancho de banda, con hasta 8 versiones (AGP x8) llegando hasta los 2,1 GB/s, y que en 2004 sería sustituido por el bus PCIe.
Aquí tenemos ya muy bien establecidas las dos grandes compañías de tarjetas gráficas 3D como son Nvidia y ATI. Una de las primeras tarjetas que marcó la nueva era fue la Nvidia GeForce 256, implementando la tecnología T&L (cálculos de iluminación y geometría). Luego situándose por encima de sus rivales por ser el primer acelerador de gráficos 3D poligonales y compatible con Direct3D. Poco después ATI sacaría su primera Radeon, conformando así las denominaciones de ambos fabricantes para sus tarjetas gráficas de juegos que perduran hasta día de hoy, aún tras la compra de ATI por parte de AMD.
Y por fin llegamos a la era actual de las tarjetas gráficas, cuando en 2004 la interfaz VGA no dio más de sí y fue sustituida por PCI-Express. Este nuevo bus permitía trasferencias de hasta 4 GB/s tanto en subida como bajada simultáneamente (250 MB x16 carriles). En un principio iría conectado al puente norte de la placa base, y utilizaría parte de la memoria RAM para vídeo, con denominación TurboCaché o HyperMemory. Pero más tarde con la incorporación del puente norte en la propia CPU estos 16 carriles PCIe irían en comunicación directa con la CPU.
Comenzó la era de las ATI Radeon HD y de las Nvidia GeForce, convirtiéndose en los principales exponentes de tarjetas gráficas gaming para ordenadores del mercado. Nvidia pronto tomaría la delantera con una GeForce 6800 que soportaba DirectX 9.0c frente a una ATI Radeon X850 Pro que se quedó un pasito por detrás. Tras esto, ambas marcas pasaron a desarrollar la arquitectura de shaders unificados con sus Radeon HD 2000 y su GeForce 8 series. De hecho, la poderosa Nvidia GeForce 8800 GTX fue una de las tarjetas más potentes de su generación, e incluso de las que vinieron después, siendo el salto definitivo de Nvidia a la supremacía. En 2006 fue cuando AMD compro a ATI y sus tarjetas pasaron a llamarse AMD Radeon.
Finalmente nos plantamos en las tarjetas compatibles con las librerías DirectX 12, Open GL 4.5/4.6, siendo las primeras las Nvidia GTX 680 y la AMD Radeon HD 7000. Sucesivas generaciones han llegado por parte de los dos fabricantes, en el caso de Nvidia tenemos las arquitecturas Maxwell (GeForce 900), Pascal (GeForce 10) y Turing (Geforce 20), mientras que AMD tiene la Polaris (Radeon RX), GCN (Radeon Vega) y ahora la RDNA (Radeon RX 5000).
Vamos a ver las partes principales de una tarjeta gráfica para así poder identificar qué elementos y tecnologías debemos conocer a la hora de comprar una. Por supuesto la tecnología avanza muchísimo por lo que iremos actualizando gradualmente lo que veamos aquí.
Chipset o GPU
Ya sabemos bastante bien cuál es la función del procesador gráfico de una tarjeta, pero será importante conocer que tenemos en su interior. Es el núcleo de la misma, y dentro encontramos una enorme cantidad de núcleos que se encargan de realizar distintas funciones, especialmente en la arquitectura que utiliza actualmente Nvidia. Dentro encontramos los respectivos núcleos y la memoria caché asociada al chip, que normalmente tiene L1 y L2.
Dentro de una GPU de Nvidia encontramos los núcleos CUDA o CUDA cores, que son, por así decirlo, los encargados de realizar los cálculos en coma flotante generales. Estos núcleos en las tarjetas AMD se denominan Stream Processors o procesadores de flujo. Un mismo número en tarjetas de distintos fabricantes no significa la misma capacidad, ya que estos dependerán de la arquitectura.
Además, Nvidia también cuenta con Tensor cores y RT cores. Estos núcleos están destinados al procesador de instrucciones más complejas acerca de trazado de rayos en tiempo real, una de las capacidades más importantes de la nueva generación de tarjeta del fabricante.
Te recomendamos la lectura de nuestro tutorial sobre que tarjeta gráfica no debes comprar.
Memoria GRAM
La memora GRAM hace prácticamente la misma función que la memoria RAM de nuestro ordenador, almacenando las texturas y elementos que van a ser procesados en la GPU. Además, encontramos capacidades muy grandes, con más de 6 GB actualmente en casi todas las tarjetas gráficas de gama media-alta.
Es una memoria de tipo DDR, igual que la RAM, por lo que su frecuencia efectiva será siempre el doble de la frecuencia de reloj, algo a tener en cuenta de cara al overclocking y a los datos de las especificaciones. En la actualidad la mayoría de las tarjetas utilizan la tecnología GDDR6, si como escucháis, DDR6, mientras que en las RAM normales son DDR4. Estas memorias son mucho más veloces que las DDR4, alcanzando frecuencias de hasta 14000 MHz (14 Gbps) de forma efectiva con un reloj a 7.000 MHz. Además, su ancho de bus es mucho mayor, alcanzado en ocasiones hasta los 384 bits en las Nvidia tope gama.
Pero aún hay una segunda memoria que ha utilizado AMD para su Radeon VII, tratándose de la HBM2. Esta memoria no cuenta con velocidades tan altas como las GDDR6, pero a cambio nos ofrece un brutal ancho de bus de hasta 2048 bits.
VRM y TDP
El VRM es el elemento encargado del suministro de energía a todos los componentes de la tarjeta gráfica, especialmente a la GPU y su memoria GRAM. Consta de los mismos elementos que el VRM de una placa base, con sus MOSFETS actuando de rectificadores DC-DC de corriente, sus Chokes y sus condensadores. De igual forma, estas fases se dividen en las V_core y en las V-SoC, para GPU y memoria.
Por parte del TDP, también significa exactamente lo mismo que en una CPU. No se trata de la potencia que consume el procesador, sino de la potencia en forma de calor que genera ésta trabajando máxima carga.
Para alimentar la tarjeta necesitamos un conector de alimentación. Actualmente se utiliza configuraciones de 6 + 2 pines para las tarjetas, ya que la propia ranura PCIe solo es capaz de suministrar como máximo 75W, mientras que una GPU puede llegar a consumir más de 200W.
Interfaz de conexión
La interfaz de conexión es la forma de conectar la tarjeta gráfica a la placa base. En la actualidad absolutamente todas las tarjetas gráficas dedicadas función mediante el bus PCI-Express 3.0 excepto las nuevas tarjetas AMD Radeon XR 5000, que se han actualizado al Bus PCIe 4.0.
A efectos prácticos, no notaremos diferencia alguna, ya que la cantidad de datos que se intercambia actualmente en este bus de 16 líneas es mucho inferior a su capacidad. Por curiosidad, PCIe 3.0 x16 es capaz de trasportar 15,8 GB/s en subida y bajada simultáneamente, mientras que el PCIe 4.0 x16 dobla la capacidad hasta los 31,5 GB/s. Pronto todas las GPU serán PCIe 4.0 esto es obvio. No nos debemos preocupar por tener una placa PCIe 4.0 y una tarjeta 3.0, ya que el estándar siempre ofrece retrocompatibilidad.
Puertos de vídeo
Por último, y no menos importante, tenemos los conectores de video, aquellos que necesitamos para conectar nuestro monitor o monitores y obtener la imagen. En el mercado actual tenemos cuatro tipos de conexión de vídeo:
Para referirnos a la potencia de una tarjeta gráfica es necesario conocer algunos conceptos que suelen aparecer en sus especificaciones y en los benchmarks. Esta será la mejor forma de conocer en profundidad la tarjeta gráfica que nos queremos comprar y además saber compararla con la competencia.
Tasa de FPS
Los FPS es el Framerate o Fotogramas por Segundo. Mide la frecuencia a la que la pantalla muestra las imágenes de un vídeo, juego o lo que en ella se represente. Los FPS tienen mucho que ver con la forma en que percibimos el movimiento de una imagen. Mientras más FPS, más sensación de fluidez nos dará una imagen. Con una tasa de 60 FPS o más, el ojo humano en condiciones normales apreciará una imagen totalmente fluida, que simularía a la realidad.
Pero claro, todo no depende de la tarjeta gráfica, ya que la tasa de refresco de la pantalla marcará los FPS que veremos. FPS es lo mismo que Hz, y si una pantalla tiene 50 Hz, el juego se verá como máximo a 60 FPS, aunque la GPU sea capaz de reproducirlo a 100 o 200 FPS. Para saber cuál sería la tasa máxima de FPS que la GPU sería capaz de representar, tenemos que desactivar la sincronización vertical en las opciones del juego.
Arquitectura de su GPU
Antes hemos visto que las GPU tienen un determinado recuento de núcleos físicos lo que podría llevarnos a pensar que mientras más, mejor rendimiento nos aportará. Pero esto no es exactamente así, ya que, al igual que ocurre con la arquitectura de las CPU, el rendimiento variará incluso teniendo la misma velocidad y los mismos núcleos. A esto lo llamamos IPC o Instrucciones Por Ciclo.
La arquitectura de las tarjetas gráficas ha ido evolucionando a lo largo de tiempo hasta tener unos rendimientos simplemente espectaculares. Son capaces de soportar resoluciones de 4K a más de 60 Hz o incluso resoluciones de 8K. Pero lo más importante, es su gran capacidad para animar y renderizar texturas con luz en tiempo real, tal y como hacen nuestros ojos en la vida real.
En la actualidad tenemos la Nvidia con su arquitectura Turing, usando transistores FinFET de 12nm para construir los chipsets de las nuevas RTX. Esta arquitectura cuenta con dos elementos diferenciales que hasta ahora no existían en los equipos de consumo general, la capacidad de Ray Tracing en tiempo real y del DLSS (Deep Learning Super Sampling). La primera función intenta simular lo que ocurre en el mundo real, calculando como incide a la luz en los objetos virtuales en tiempo real. La segunda, se trata de una serie de algoritmos de inteligencia artificial con los que la tarjeta renderiza las texturas a una resolución menor para optimizar el rendimiento del juego, es como una especie de Antialiasing. Lo ideal es combinar DLSS y Ray Tracing.
Por parte de AMD, también ha estrenado arquitectura, aunque es cierto que convive con las inmediatamente anteriores para contar con una gran gama de tarjeta que, si bien es cierto, no están al nivel de las tope gama de Nvidia. Con RDNA, AMD ha aumentado el IPC de sus GPU en un 25% respecto a la arquitectura GNC, consiguiendo con esto un 50% más de velocidad por cada vatio consumido.
Frecuencia de reloj y modo turbo
Junto a la arquitectura, dos parámetros son muy importantes de cara a ver el rendimiento de una GPU, que son los de su frecuencia de reloj base y el aumento en modo turbo o overclocking de fábrica. Al igual que ocurre con las CPU, las GPU también son capaces de variar su frecuencia de procesamiento gráfico según necesite en cada momento.
Si nos fijamos, las frecuencias de las tarjetas gráficas son mucho menores que las de los procesadores, estando en torno a los 1600-2000 MHz. Esto se debe a que la mayor cantidad de núcleos suple la necesidad de una mayor frecuencia, para así controlar el TDP de la tarjeta.
En este punto será fundamental saber que en el mercado tenemos los modelos de referencia y las tarjetas personalizadas. Las primeras, son los modelos que sacan los propios fabricantes, Nvidia y AMD. Las segundas, los fabricantes básicamente cogen GPU y memorias para ensamblar las suyas propias con componentes y disipadores de mayor rendimiento. El caso es que también se modifica su frecuencia de reloj, y estos modelos suelen ser más veloces que los de referencia.
TFLOPS
Junto a la frecuencia de reloj tenemos los FLOPS (Operaciones en Punto Flotante por segundo). Este valor mide las operaciones en coma flotante que un procesador es capaz de realizar en un segundo. Es una cifra que mida la potencia bruta de la GPU, y también de las CPU. Actualmente no podemos hablar simplemente de FLOSP, sido de TeraFLOPS o TFLOPS.
No debemos llevarnos a confusión el pensar que más TFLOPS significará que nuestra tarjeta gráfica es mejor. Normalmente es así, ya que debería ser capaz de mover las texturas con mayor soltura. Pero otros elementos como la cantidad de memoria, su velocidad y la arquitectura de la GPU y su caché marcarán la diferencia.
TMUs y ROPs
Son unos términos que van a aparecer en todas las tarjetas gráficas, y sí que nos dan una buena idea de la velocidad de trabajo de las mimas.
TMU significa Unidad de mapeo de Texturas. Este elemento se encarga de dimensionar, rotar y distorsionar una imagen de mapa de bits para colocarla en un modelo 3D que servirá como textura. Es decir, aplica un mapa de color a un objeto 3D que a priori estará vacío. Mientras más TMU, mayor será el rendimiento de texturizado, más rápido se rellenarán los píxeles, y más FPS obtendremos. Las TMU actuales incluyen unidades de dirección de textura (TA) y unidades de filtrado de textura (TF).
Ahora pasamos a ver los ROPs o Unidades de Rasterizado. Estas unidades procesan la información de texel de la memoria VRAM y realizar operaciones de matriciales y de vectores para darle un valor final al pixel, que será su profundidad. A esto se le llama rasterización, y básicamente controlar el Antialiasing o la fusión de los distintos valores de pixeles ubicados en memoria. DLSS es precisamente una evolución de este proceso para generar
Cantidad de memoria, ancho de banda y ancho de bus
Sabemos que existen varios tipos de tecnologías para las memorias VRAM, de las cuales actualmente la más utilizada es la GDDR5 y la GDDR6, con velocidades que llegan hasta los 14 Gbps para ésta última. Al igual que ocurre con la RAM, mientras más memoria más datos de píxeles, texturas y texel podremos almacenar. Esto influye bastante en la resolución a la que juguemos, al nivel de detalle del mundo, y a la distancia de visualización. En la actualidad una tarjeta gráfica deberá como mínimo 4 GB de VRAM para poder trabajar con los juegos de nueva generación a resoluciones Full HD y superiores.
El ancho de bus de memoria representa la cantidad de bits que se pueden transmitir en una palabra o instrucción. Éstas son mucho más largas que las que usan las CPU, con longitudes de entre 192 y 384 bits, recordemos el concepto del paralelismo en el procesamiento.
El ancho de banda de la memoria es la cantidad de información que se puede transferencia por unidad de tiempo y se mide en GB/s. Mientras mayor ancho de bus y mayor frecuencia de memoria, más ancho de banda tendremos, porque mayor será la cantidad de información que podrá viajar por ella. Es igual que Internet.
Compatibilidad con las API
Una API es básicamente un conjunto de librerías que se utilizan para desarrollar y trabajar con las distintas aplicaciones. Significa programación de aplicaciones, y es el medio en el cual se comunican entre sí distintas aplicaciones.
Si nos trasladamos al mundo multimedia, tenemos también APIs que permiten el funcionamiento y creación de juegos y vídeo. La más famosa de todas será DirectX, que está en su versión 12 desde 2014, y en las últimas actualizaciones ha implementado capacidad de Ray Tracing, MSAA programable y realidad virtual. La versión de código abierto es OpenGL, que va por la versión 4.5 y también la usan muchos juegos. Finalmente tenemos Vulkan, una API especialmente desarrollada para AMD (su código de origen era de AMD y lo cedió a Khronos).
Capacidad de overclocking
Antes hablamos de la frecuencia turbo de las GPU, pero es que también es posible aumentarla por encima de sus límites haciéndole overclocking. Con esta práctica básicamente se intenta buscar más FPS en los juegos, más fluidez para mejorar nuestra respuesta.
La capacidad de overclocking de las CPU rondan los 100 o 150 MHz, aunque algunas son capaces de admitir algo más o algo menos, según su arquitectura y frecuencia máxima.
Pero es que además es posible overlockear las memorias GDDR y además muchísimo. Una memoria GDDR6 promedio trabajando a 7000 MHz admite subidas de hasta 900 y 1000 MHz llegando así hasta los 16 Gbps efectivos. De hecho, es el elemento que más hace subir la tasa de FPS del juego, con aumentos de incluso 15 FPS.
Algunos de los mejores programas para hacer overclocking son Evga Precision X1, MSI AfterBurner y AMD WattMan para las Radeon. Aunque muchos fabricantes tienen el suyo propio, como AORUS, Colorful, Asus, etc.
Los benchmarks son pruebas de estrés y rendimiento a las que se someten ciertos complementes hardware de nuestro PC para evaluar y comparar su rendimiento frente a otros productos del mercado. Por supuesto hay benchmarks para evaluar el rendimiento de las tarjetas gráficas, e incluso del conjunto gráfica-CPU.
Estos test casi siempre muestran una puntuación adimensional, es decir, que solamente se podrá comprar con las generadas por ese programa. En el lado contrario estarían los FPS y por ejemplo TFLOPS. Los programas más utilizados para el benchmarks de tarjetas gráficas son 3DMark, que cuenta con una gran cantidad de test diferentes, PassMark, VRMark o GeekBench. Todos ellos tienen su propia tabla de estadísticas para comprar nuestra GPU con la competencia.
Por supuesto que importa amigos, así que antes de comprar una tarjeta gráfica, lo mínimo que podemos hacer es irnos a sus especificaciones y ver lo que mide. Luego vayámonos a nuestro chasis y midamos qué espacio tenemos disponible para ella.
Las tarjetas gráficas dedicadas tienen unas GPU muy potentes con TDP de más de 100W en todas ellas. Esto significa que se van a calentar bastante, de hecho, más incluso que los procesadores. Por esto motivo todas ellas tienen disipadores de gran tamaño que ocupan casi toda la PCB de electrónica.
En el mercado podemos encontrar básicamente dos tipos de disipadores.
Denominamos tarjetas gráficas personalizadas a los modelos que ensamblan fabricantes genéricos de hardware como Asus, MSI, Gigabyte, etc. Estos, compran directamente los chips gráficos y las memorias al fabricante principal, AMD o Nvidia, y luego los montan en una PCB fabricada por ellos junto a un disipador también creado por ellos.
Lo bueno de esta tarjeta es que vienen overclockeadas de fábrica, con una frecuencia superior a los modelos de referencia, por lo que rendirán un poco más. Su disipador también es más bueno y su VRM, e incluso muchas tienen RGB. Lo malo es que suelen ser más caras. Otro aspecto positivo es que ofrecen muchos tipos de tamaño, para chasis ATX, Micro ATX o incluso ITX, con tarjetas muy pequeñitas y compactas.
Seguramente a estas alturas nos preguntemos si un portátil también puede tener tarjeta gráfica dedicada, y lo cierto es que sí. De hecho, en profesional Review analizamos una enorme cantidad de portátiles gaming con GPU dedicada.
En este caso, no irá instalada sobre una placa de expansión, sino que el chipset irá directamente soldado en la PCB principal del portátil y muy cerquita de la CPU. A estos diseños normalmente se le llama Max-Q por no llegar disipador aleteado y contar con una región específica en la palca base para ellas.
En este ámbito el rey indiscutible es Nvidia, con sus RTX y GTX Max-Q. Son chips optimizados para portátiles y que consumen 1/3 respecto a los modelos de escritorio y tan solo sacrifican un 30% de su rendimiento. Esto se consigue disminuyendo su frecuencia de reloj, a veces eliminando algunos núcleos y disminuyendo la velocidad de la GRAM.
Para jugar, al igual que para hacer todo tipo de tareas en nuestro ordenador, siempre tenemos que buscar un equilibrio en nuestros componentes para así evitar que existan cuellos de botella. Reduciendo esto al mundo de gaming y de nuestras tarjetas gráficas, debemos de conseguir un equilibrio entre GPU y CPU, para que ninguno de ellos se quede corto y el otro de desaproveche demasiado. Nuestro dinero está en juego, y no podemos comprar una RTX 2080 e instalarla con un Core i3-9300F.
El procesador central tiene un papel importante en el trabajo con los gráficos como ya hemos visto en anteriores apartados. Así que debemos asegurarnos que tenga la suficiente velocidad, núcleos e hilos de procesamiento para trabajar con las físicas y el movimiento del juego o vídeo y enviárselos a la tarjeta gráfica tan rápido como sea posible.
En cualquier caso, siempre tendremos la posibilidad de modificar los ajustes gráficos del juego para reducir el impacto de una CPU demasiado lenta para las exigencias. En el caso de la GPU es sencillo compensar su falta de rendimiento, tan solo bajando la resolución conseguiremos grandes resultados. Con la CPU es diferente, ya que, aunque haya menos píxeles, las físicas y movimiento seguirán casi iguales, y bajar la calidad de estas opciones podrá influir mucho en la correcta experiencia de juego. Estas son algunas opciones que influyen en la CPU y otras en la GPU:
Influyen en GPU | Influyen en CPU |
En general, las opciones de renderizado | En general, las opciones de físicas |
Antialiasing | Movimiento de personajes |
Ray Tracing | Elementos que se muestran en pantalla |
Texturas | Partículas |
Teselado | |
Postprocesado | |
Resolución | |
Oclusión ambiental |
Viendo esto, podemos hacer un balance más o menos general clasificando los equipos según el propósito para el que estén construidos. De esta forma será más fácil conseguir unas especificaciones más o menos equilibradas.
Empezamos por lo más básico, o al menos lo que consideramos más básico aparte de los mini PC con Celeron. Se supone que si buscamos algo barato lo mejor sería irnos a los procesadores Athlon de AMD o a los Pentium Gold de Intel. En ambos casos tenemos gráficos integrados de buen nivel, como son los Radeon Vega en el primer caso, o los UHD Graphics en el caso de Intel, que admiten altas resoluciones y un digno desempeño en tareas poco exigentes.
En este campo carece totalmente de sentido el comprar una tarjeta gráfica dedicada. Son CPU con dos núcleos que no van a rendir los suficiente como para amortizar el coste de una tarjeta. Es más, los gráficos integrados nos van a dar un rendimiento similar a lo que ofrecería una GPU dedicada de 80-100 euros.
Podemos considerar un equipo de propósito general aquel que va a responder bien en muy diversas circunstancias. Por ejemplo, navegar, trabajar en office, hacer pinitos en diseño e incluso editar videos a nivel aficionado y jugar de vez en cuando en Full HD (tampoco podemos venirnos y pedir mucho más).
En este ámbito van a destacar los Intel Core i3 de 4 núcleos y alta frecuencia, y muy especialmente los AMD Ryzen 3 3200G y 5 3400G con gráficos Radeon RX Vega 11 integrados y un precio muy ajustado. Estos Ryzen son capaces de mover dignamente un juego de última generación en calidad baja y Full HD. Si queremos algo un poco mejor, pasemos al siguiente.
Pero claro, si queremos más debemos hacer sacrificios, y esto es lo que toca si queremos obtener una experiencia de juego optima en Full HD o 2K en calidad alta. En este caso, todavía los procesadores comentados son una gran opción por ser de 6 núcleos, pero podríamos subir a los Ryzen 5 3600 y 3600X y a los Intel Core i5-9600K. Con estos, merecerá la pena subir a las RTX 2060/2070 Super de Nvidia y a las RX 5700/5700 XT de AMD.
Aquí habrá muchas tareas de renderizado y juegos funcionando con los filtros al máximo, por lo que necesitaremos una CPU de al menos 8 núcleos y una tarjeta gráfica potente. Los AMD Ryzen 2700X o 3700X serán una gran opción, o los Intel Core i7 8700K o 9700F. Junto a ellos, nos merecemos una Nvidia RTX 2070 Super o una AMD Radeon RX 5700 XT.
Y si queremos ser la envidia de nuestros amigos, subamos a una RTX 2080 Super, esperemos un poco a las Radeon 5800, y hagámonos con un AMD Ryzen 3900X o un Intel Core i9-9900K. los Threadripper no son una opción factible en la actualidad, aunque sí los Intel X y XE de la plataforma LGA 2066 y su alto coste.
Hasta aquí llega este post en el que explicamos de forma bastante detallada la actualidad de las tarjetas gráficas, así como un poco de su historia desde los inicios de las mismas. Es uno de los productos que más adeptos tiene en el mundo de la informática, ya que un PC gaming a buen seguro va a rendir mucho más que una consola.
Los verdaderos gamers utilizan ordenadores para jugar, especialmente en e-sport o gaming competitivo a nivel mundial. En ellos, siempre se intente conseguir el máximo rendimiento posible, aumentando FPS, disminuyendo tiempos de repuesta y usando componentes diseñados para gaming. Pero nada sería posible sin las tarjetas gráficas.