Reviews

LDAT y PCAT cómo medir el consumo de GPU y latencia de PC reales

El desarrollo de los videojuegos ha entrado en una nueva era, más realismo e inmersión, pero también mayor consumo de recursos y competitividad al tener cada vez más títulos online y eSport. LDAT y PCAT son dos herramientas muy concretas que permitirán a los jugadores más exigentes o de nivel profesional sacar ventaja de su equipo midiendo consumos y latencias en busca de optimizaciones que las mejoren.

En una partida competitiva, ya sea por Internet o sobre todo LAN, se ha demostrado los equipos con menor latencia sacan una ventaja en bajas a los rivales. El problema era la forma de medirla en todo el equipo, algo que sí es capaz de hacer LDAT, y en combinación con Nvidia Latency Reflex podremos mejorarla. En este post veremos las ventajas técnicas que nos dan estos dispositivos, si realmente son útiles y a quien vas destinados. ¿Cómo de importante será invertir en un monitor gaming o buen hardware?

PCAT: Midiendo el consumo real de la tarjeta gráfica

PCAT o Power Capture Analysis Tool será una herramienta construida por Nvidia para medir el consumo real de la tarjeta gráfica al completo. De esta forma podremos calcular el rendimiento por vatio real de nuestra GPU en las condiciones concretas de nuestro equipo o con el juego probado.

El dispositivo consiste en una extensión riser que actúa de puente entre la GPU y la ranura PCIe, que medirá la energía de la interfaz a través de un sensor que irá conectado al siguiente elemento.

A lo anterior se le suma una pequeña placa base que en definitiva es la que realiza todos los cálculos de consumo. Actúa de puente en la alimentación externa, y en ella debemos de conectar las cabeceras de alimentación que vienen de la PSU y a su vez conectarla con las cabeceras de la tarjeta gráfica. Opcionalmente vendrá provista de una pantalla OLED de 0,91 pulgadas que provee monitorización on-board que realmente no es necesaria.

Dispositivo de captura de datos PCAT

El software PCAT monitoriza con todo detalle el consumo en tiempo real de todo el conjunto, y para ello debemos de conectar la pequeña placa base mediante su puerto USB al equipo. La ideal será utilizar dos equipos para realizar esta y la medida de latencia, sobre todo. Mientras que los dispositivos irán colocados en el equipo de pruebas, la conexión USB se realiza a otro equipo (host) independiente que no interfiera en la acción de juego.

Diferencias entre TDP, TGP y TBP

Antes de efectuar las medidas conviene ver las diferencias entre los términos que normalmente se utilizan en review o por parte de fabricantes para especificar el consumo de su GPU.

Adaptador Riser

TDP (Thermal Design Power) es básicamente la potencia que un elemento podría extraer para una aplicación en el mundo real. Traducido a la práctica, será la cantidad máxima de calor que el componente es capaz de generar y que la refrigeración debe ser capaz de disipar. No estamos hablando entonces de consumo del componente, sino que es una medida con la que un disipador debe ser capaz de lidiar.

Pantalla OLED

TGP (Total Graphics Power) y TBP (Total Board Power) son términos equivalentes, y sí que tienen que ver con el consumo del elemento. Se trata de la potencia que una fuente debe suministrar a una tarjeta externa (GPU, u otra cualquiera) para que esta funcione con una aplicación de máximo extrés en el mundo real. Es decir, el consumo total de esta tarjeta a máximo rendimiento. Nvidia usa TGP, mientras que AMD suele llamarlo TBP.

Algunas especificaciones de GPU versión Laptop

El descenso del tamaño de los transistores y mejora de la arquitectura a través de las generaciones pretende conseguir en mayor rendimiento gráfico a menor consumo. Esto es lo que se llama PPW (Power Per Watt), y mientras mayor sea, más eficiente será una GPU. Con ayuda de PCAT vamos a poder calcular el PPW con juegos o benchmark dividiendo los FPS entre el consumo, por ejemplo, para compararlo con otras GPU en las mismas condiciones.

Medidas en tarjeta Nvidia y AMD, ¿es fiable GPU-Z o HWiNFO?

Mediciones de GPU-Z

En nuestros análisis, al menos hasta ahora no contábamos con LDAT y PCAT, así que la medida más real posible que podíamos daros del consumo de una GPU es midiendo el equipo completo a través de un vatímetro conectado al enchufe. Pero existen aplicaciones como HWiNFO o GPU-Z que dan una medida de vatios directa de la GPU ¿Son fiables los datos?

Nvidia informa del consumo completo de chip y placa a través de las aplicaciones, lo que vendría a ser el TGP, mientras que AMD informa de un valor intermedio entre la potencia del chip y de la PCB completa. Entonces las medidas vistas en las aplicaciones no van a ser del todo exactas, sobre todo en las GPU AMD, y lo mejor será hacerlo con PCAT.

Midiendo la potencia con PCAT y Nvidia RTX 3080

Realizando la instalación que vemos en imágenes el instalando el software PCAT podremos obtener inmediatamente una gráfica en tiempo real del consumo de la tarjeta gráfica y voltajes de los pines.

Para obtener una lectura lo más real posible, o extraer el máximo rendimiento de la tarjeta, deberíamos de desactivar la sincronización vertical y configurar la frecuencia de refresco máxima en el monitor

El software PCAT nos muestra una gráfica con el consumo en tiempo real, así como los datos de potencia (W), voltaje (V) e intensidad (A) de cada uno de los raíles utilizados en la placa de medición. Esto último será muy interesante para ver si nuestra PSU entrega unos valores nominales y adecuados en cada raíl en caso de tener GPUs muy potentes como esta. Así también comprobamos qué tipo de gestión energética hace la tarjeta en cada boca.

Si pretendemos hacer un estudio más completo de consumo u otros valores para la GPU, el software crea un registro csv en donde nosotros elijamos guardar que registra todos los valores ordenados en tablas por décimas de segundo. Será interesante para usuarios avanzados o estudios en detalle.

Aplicación PCAT
Comparativa entre consumo de GPU jugando a 60 Hz Vsync ON, y con Vsync OFF

Gracias a esos CSV podremos crear nuestras propias gráficas con los resultados que más nos interesen. Por ejemplo, aquí mostramos una gráfica en donde comparamos el consumo de la Nvidia RTX 3080 en un benchmark a Metro Exodus sin Vsync (gráfica azul) y con Vsync limitando los cuadros a 60 FPS (naranja). En ella se ve perfectamente lo que antes hemos comentado, y efectivamente la potencia se limita notablemente, derivando en menor consumo y temperatura.

Hemos comparado las mediciones de GPU-Z con PCAT y en el caso de Nvidia vemos que los resultados están prácticamente a la par. Efectivamente, Nvidia envía a través de API una telemetría muy completa y precisa de su TGP, incluso del voltaje de cada uno de los pines de alimentación, y potencia detallada de placa, chipset y demás elementos. PCAT todavía dará una medida aún más fiable al realizarse la medición con aparatos físicos.

Un paso más con FrameView y tarjetas Nvidia

Con la aplicación extra FrameView en combinación con PCAT podremos calcular de forma automática el PPW y la potencia media de la GPU con el juego o benchmark que ejecutemos. Esto obviamente se deberá realizar en el mismo PC de pruebas sin utilizar un host, ya que FrameView coge los datos del PCAT y los combina con los datos de la aplicación 3D para sacar el rendimiento por vatio y otros parámetros.

CSV de FrameView

Tras ejecutar PCAT, haremos lo mismo con FrameView, y posteriormente ejecutaremos el juego. La medición de datos se inicia con Scroll Lock (scr lk o bloq despl), o F10, y concluye pulsando esta misma tecla. De nuevo, en Mis Documentos se crea un nuevo registro de sumario con los datos y otro más detallado referente a la prueba que hayamos realizado.

Este csv entrega una gran cantidad de medidas sobre el test realizado, tanto de GPU como de CPU, así como FPS. Vemos más claramente las diferencias de potencia que registra la API y PCAT, y la relación de rendimiento por vatio para comparar la eficiencia de cara tarjeta y las distintas generaciones.

LDAT: Midiendo la latencia completa del PC

Tras medir el consumo es la hora de medir la latencia de nuestro equipo al completo, o también llamada End-to-End Latency con la herramienta LDAT o Latency Display Analysis Tool. Luego combinaremos LDAT y PCAT para realizar un buen análisis de nuestro equipo y el rendimiento que nos entrega.

Dispositivo de captura de luminancia en pantalla

Hasta hace bien poco, la medida más importante para un jugador eran los FPS o Frames por Segundo, es decir, la cantidad de fotogramas que se pueden procesar y mostrar por segundo en un juego u otra aplicación. Mientras más, pues mayor fluidez tendrá la imagen, siempre que nuestro monitor sea capaz de representarlos a esta velocidad con su tasa de refresco en Hz (hertzios). Pero actualmente ya tenemos monitores de hasta 360 Hz y GPU que entregan más de 200 FPS en Full HD con algunos juegos, así que ahora toma una nueva dimensión la latencia.

La latencia mide el tiempo que transcurre entre una acción y su respuesta, que traducido al ámbito de juegos, será el tiempo que pasa desde que damos un clic al ratón y éste se traduce en un disparo o acción en los píxeles de la pantalla. Mientras más pequeña sea, más rápida será la acción, más rápidos nuestros reflejos y antes podremos responder ante un rival. Con jugadores a un nivel similar, seguramente ganará aquel que tenga una respuesta más rápida, y por ende menor latencia en el conjunto.

Latencias en nuestro PC y la ventaja de LDAT

Diagrama de latencias End-to-End

En la imagen anterior se muestran todas las latencias que intervienen en nuestro equipo excepto la que introducimos nosotros mismos como humanos. A nivel de software y sistema, no es posible medir el proceso completo, aunque la mejor aproximación hasta ahora es la tecnología Nvidia Reflex Latency Analyzer que implementan la nueva generación de monitores de 360 Hz. Esta herramienta solamente es compatible con monitores muy potentes y unos pocos juegos por ahora, siendo capaz de mejorar la respuesta del conjunto de forma inteligente.

LDAT es la forma física más exacta para medir la latencia End-to-End o punto a punto, y el paso definitivo sería ya escanear los milisegundos de cada apartado, algo por ahora imposible. Este dispositivo consiste en colocar un sensor de luminancia en el monitor para detectar los cambios de brillo, por ejemplo cuando se dispara un arma. Dicho aparato a su vez detecta cuándo se produce el clic del ratón, midiendo el tiempo transcurrido entre este evento y la respuesta del monitor. A través de un software se representará esta respuesta. Para no interferir en la medición, lo ideal será uso un segundo equipo de captura de datos.

Conociendo la latencia, podremos intentar optimizar nuestro equipo en distintas áreas para para reducirla al máximo. Según el esquema de antes podríamos tocar intervenir de distintas formas:

  • Ratón: el primer elemento que genera latencia, según el tipo de botones, puerto utilizado y tasa de sondeo. Tener un ratón conectado por cable y con 1000 Hz o más, disminuirá la latencia a 1 ms o menos.
  • Sistema operativo y CPU (latencia de juego): el sistema se encarga de mover el juego y de cambiar el mundo (simulación) en función de los cambios generados por el jugador. La simulación envía a su vez los comandos de renderizado a la API gráfica, y posteriormente a la GPU a través de los drivers. Una CPU con más núcleos y mayor frecuencia será capaz de hacer más tareas en cada ciclo. De igual forma un sistema actualizado, limpio y con API y drivers actuales será capaz de trabajar más rápidamente. Será básico tener los drivers originales instalados, ya que los genéricos estarán muy lejos de “entenderse” bien con la tarjeta y aprovechar sus funciones.
  • Latencia de renderizado de GPU: tras enviar las instrucciones, estas se colocan en una cola de procesamiento esperando su turno para ser renderizadas y transformadas en imágenes. Obviamente una GPU de mayor potencia y cantidad de núcleos será capaz de procesar más cuadros a la vez. Tecnologías como Resizable BAR aceleran este procesamiento al poner a disposición de la CPU toda la memoria VRAM de la tarjeta gráfica.
  • Monitor: el último elemento que introduce latencia en el sistema será la pantalla, que será el orden de varios ms o incluso más de 10 ms si es antiguo o mediocre. Interviene el tiempo que la pantalla tarda en recibir y procesar los cuadros, y realizar el cambio de luz en los píxeles. En la actualidad los panales IPS son tan rápidos o incluso más que los TN, aportando mejor calidad de color.

La gran ventaja de LDAT es precisamente darnos la medida más real posible de nuestro equipo. La detección de la respuesta del monitor se realiza entre un 10 y un 90% GTG, con el valor más bajo que se comience a detectar para no tener en cuenta la latencia humana. Este umbral se puede modificar en el software LDAT, aunque la diferencia será inferior a 1 ms, así que lo mejor será dejarlo por defecto.

Midiendo la latencia del equipo con el monitor Asus MG278Q de 144 Hz

Utilizaremos la versión LDAT v2, la cual no necesita una conexión física con un ratón modificado, al disponer de un botón en el sensor que simula el clic del ratón (opción Mouse Emu en software). Incluso dispone de una opción para utilizar un micrófono como detector de clic a través del sonido, conectado a un puerto Jack de 3,5 mm en el propio sensor. El software también incluirá un modo de disparo automático para pruebas consecutivas.

Estas tres opciones funcionarán siempre que utilicemos el mismo equipo para medir y analizar la latencia, es decir, que sea el mismo sistema de destino para enviar los clics a través del software.

En nuestro caso no tendremos el ratón modificado, así que para las pruebas simularemos el clic con el botón integrado en LDAT v2. El proceso es simple, iniciamos el programa y debemos seleccionar el apartado E2E Latency, medición de la Luz y el resto de las opciones las dejamos por defecto. Podremos verificar que el botón funciona pulsándolo y viendo que la propia aplicación simula un flash de disparo para medir la latencia. Para crear un registro de datos csv iniciaremos el juego y pulsaremos F11 para iniciar la captura. Si volvemos a pulsar el registro terminará, se almacenará y otro nuevo comenzará.

Medición de latencias ejemplo en Doom Eternal con 144 y 60 Hz

El primer juego que hemos testeado es Doom Eternal, uno de los más sencillos el tener todas sus armas fogonazos que se capturan perfectamente. Las diferencias de latencia con Vsync activado a 60 Hz y dejando correr libremente el juego a 144 Hz sin Vsync quedan patentes. En el primer caso la media sube hasta los 135 ms, mientras que en el segundo caso será de tan solo 34,11 ms. Tal diferencia se nota directamente al jugar, y el ojo humano percibe este ligero retardo entre el disparo y el impacto. A 360 Hz vemos que apenas hay diferencias, y de hecho la latencia media es solo 1 ms inferior.

También hemos medido el retardo existente con una resolución 2K nativa del monitor y Full HD, sin Vsync y a máxima potencia de refresco. Las medidas sin bastante similares, aunque la media total favorece la resolución Full HD con 34,11 ms frente a 40,5 ms de 2K.

Finalmente hemos medido los resultados en dos monitores diferentes, uno construido para gaming como es el Asus MG278Q de 144 Hz y otro más genérico como es el Viewsonic VX3211 4K mhd de 60 Hz y el Asus ROG Swift 360 Hz PG259QNR. La media de latencias en las mismas condiciones será de 34,11 ms vs 59,56 ms vs 33 ms sin Vsync en ningún caso. Esto significa que el monitor más lento introduce más de 25 ms extras, y a nivel competitivo 60 ms ya es una cifra considerable. Entre el modelo de 144 y 360 apenas hay diferencias en la latencia media, lo que significa que sus respuestas están a la par (de hecho en ambos casos será de 1 ms.

Medición de latencias ejemplo en Call of Duty MW
Medición de latencias ejemplo en Cyberpunk 2077

Hemos repetido las pruebas de 60 Hz + Vsync y de 144 Hz sin Vsync en los títulos CyberPunk 2077, Call of Duty Modern Warfare y Fortnite, y los resultados siguen la misma tendencia que en Doom, superando siempre los 100 ms en la frecuencia más baja.

El caso concreto de Fortnite supera a todos los anteriores en velocidad, algo obvio al tratarse de un título con gráficos justitos y centrado en el rendimiento online. La media con FPS ilimitados es muy buena, entregando solo 26 ms, con Vsync a 60 Hz entrega 44 ms y con Vsync a 30 FPS 75 ms. Estas pruebas se han realizado en el modo rendimiento, que aún está en fase alpha, pero mejora un poco la latencia de renderizado y procesos internos del equipo.

Aprovechando que tenemos el monitor Asus de 360 Hz compatible con Nvidia Latency Reflex, hemos comprado la latencia en Call of Duty con la función completamente desactivada y con ella actividad + aumento en las opciones gráficos de COD. Las diferencias en ambos casos son muy pocas también, si bien la gráfica amarilla se nota con menos altibajos, que se traduce en una mejora de solo 1 ms. Seguramente en equipo con menor potencia estas diferencias serán mayores.

Conclusiones sobre LDAT y PCAT

LDAT y PCAT son dos excelentes herramientas que permiten a jugadores profesionales medir con total veracidad el consumo real de nuestra GPU y la latencia de nuestro equipo completo. por ahora no se comercializan para el público general, así que es una suerte haber tenido acceso a ellas, y con total seguridad las utilizaremos de aquí en adelante para nuestros análisis.

No ha pasado mucho tiempo desde que se crearon y ya tenemos una segunda versión de LDAT, así que la marca se lo ha tomado enserio y está implementado nuevas funciones y actualizaciones para su dispositivo. Al menos ya no dependemos de un ratón modificado para realizar las pruebas, aunque el siguiente paso será implementar directamente un puerto USB en el dispositivo para así poder probar cada ratón con sus peculiaridades y potencia.

A nivel de captura de datos, ambos dispositivos son una maravilla, y aquí solo mostrados algunas de las muchas utilidades que podrían llegar a tener. Quizás darnos la posibilidad de configurar la salida de datos con más exactitud podría ser una actualización interesante, aunque no tenemos quejas de los csv que va creando cada aplicación.

Las suposiciones teóricas que ya conocíamos sobre el consumo vs tasa de refresco y latencia vs tasa de refresco se han demostrado completamente. Por este motivo tienen tanto sentido los monitores construidos para gaming y las brutales tasas de refresco que vemos. Cada vez son más potentes las tarjetas gráficas, y los monitores deben asegurarse de no ser un cuello de botella. ¿Qué sentido tiene comprar una tarjeta gráfica de 1000 euros si jugamos con un monitor de 60Hz? La respuesta la tendremos aquí mismo: nos estaríamos dejando una gran cantidad de FPS y latencia por el camino, y a nivel competitivo eso significa morder el polvo.

Os dejamos con algunos artículos interesantes:

Recent Posts

  • Cajas

CHIEFTEC Visio y Visio Air, nueva caja para PC de doble cámara ATX

CHIEFTEC acaba de presentar dos nuevas cajas para PC, Visio y Visio Air con un…

3 horas atrás
  • Reviews

Asus ZenWiFi BT8 Review en Español (Análisis completo)

Asus ZenWiFi BT8 es un sistema Mesh Wi-Fi 7 el cual se sitúa por debajo…

5 horas atrás
  • Portátiles y ordenadores

Snapdragon X: Qualcomm anuncia nuevos modelos de gama baja, apuntan a portátiles de 600 dolares

Qualcomm anuncia nuevos SoC Snapdragon X, pero no se trata de una nueva generación, sino…

5 horas atrás