¿Pensando en comprar una TV? Es importante que ésta traiga una certificación de estándar HDR interesante, como es HDR10 o HDR10+. Hemos comparado y analizado por separado estos estándares, los cuales están presentes en casi todas las gamas de televisores.
Nos hemos dado cuenta de que ambos estándares están presentes en casi todos los televisores, ¡incluso en los smartphones! Por tanto, consideramos que es importante abordar qué ofrece cada estándar, en qué consiste y cuál es mejor de cara a comprar un televisor. Sin más dilación, veamos qué es más interesante, ¿el antiguo o el nuevo?
Índice de contenidos
Retrocedemos al 27 de agosto de 2015, momento en el que la Consumer Technology Association anunció el HDR10, un estándar HDR que se presentaba como «abierto». Desde entonces, lo hemos visto en muchos televisores y smartphones (especialmente de Samsung), por lo que podría decirse que ha sido uno de los estándares HDR más usados hasta el momento.
Es importante que entendamos que los estándares de HDR funcionan con los metadatos, los cuales ordenan (tone mapping) a la TV cómo reproducir el brillo o el color de la imagen. Y es que hay una clave en esta comparativa de HDR10 y HDR10+: metadatos dinámicos y estáticos. El problema de este estándar está en que usa metadatos estáticos, por lo que los límites de brillo de una imagen no se mueven.
Esto le obliga al HDR10 a tener un «límite de brillo» muy amplio para que se muestren bien las escenas de una película. La problemática llega cuando, en una escena, hay elementos brillantes y oscuros: se pueden perder detalles en los brillantes y los oscuros se ven poco tenues.
En cambio, los metadatos dinámicos del HDR10+ da más flexibilidad porque los límites de brillo se pueden cambiar frame por frame, dando pie a unos gradientes más suaves y detallados.
Se caracteriza por certificar una profundidad de color de 10-bit, un límite máximo de 10.000 nits de brillo y unos colores primarios bajo Rec. 2020, que define varios detalles como la resolución, FPS, colometría, etc. Una de las razones por la que ha sido muy usado es porque el fabricante del monitor/TV/smartphone no tiene que pagar derechos por ofrecerlo, ya que es abierto.
Con el HDR10 en el mercado, llega HDR10+ en 2017 como resultado de una colaboración entre Samsung y Amazon. Inicialmente, se trata de una actualización de HDR10, en la que se añaden los metadatos dinámicos para llegar a niveles de brillo máximos de 10.000 cd/m², soportando hasta 10-bit y una resolución 8K.
También es un estándar abierto, por lo que los fabricantes no tienen que pagar ningún royaltie por usarlo y por implementarlo en sus dispositivos. Respecto al espacio de color usado, también tenemos Rec.2020 (BT.2020) para medir la fidelidad respecto a los colores reales.
Poco a poco, empresas importantes se han ido sumando a este estándar HDR10, como son Panasonic, Philips, 20th Century Fox, Warner Bros o Universal Pictures. Desde Samsung, nos han vendido que HDR10+ es más dinámica, da más profundidad a la imagen y ofrece colores más vibrantes; vamos, que es mejor en todo.
Es importante tener en cuenta que las principales productoras de cine se lancen a este estándar porque, si consumimos Blu-Ray en 4K, esto lo vamos a disfrutar. Es cierto que Amazon Prime Video lo trae de forma nativa, pero para los clásicos del cine, las versiones IMAX de las películas suelen venir con soporte HDR10+. De cara a ver una película, la experiencia es mucho más enriquecedora.
Cosas de la competencia. Si nos vamos a su gama OLED, LG apuesta por Dolby Vision, que vendría a ser la competencia de HDR10+ en cuanto a estándares. Sin embargo, hay pocos modelos que sí que vienen con HDR10+ (LG G1 y LG UN74), pero es complicado ver modelos de la marca coreana con este estándar.
Si es un estándar abierto, ¿por qué LG no lo usa? Porque prefiere priorizar en ofrecer Dolby Vision, Dolby Atmos y Dolby Digital, aunque aquí solo tiene sentido hablar del primero de todos. Dolby Vision usa metadatos dinámicos para aprovechar el rendimiento del frame al máximo, pero se diferencia de HDR10+ en los iguiente:
Por el contrario, Samsung no admite Dolby Vision en sus equipos porque confía en su propio HDR y en la capacidad de su hardware.
Después de analizar estos 2 estándares HDR, llegamos a la conclusión de que HDR10+ es el mejor para el futuro porque fue creado como evolución. Hoy en día, es el HDR10+ el que rivaliza con Dolby Vision porque son estándares con metadatos dinámicos, lo cual se adecua mejor a las necesidades de la imagen en tiempo real.
Además, vemos muchísimos dispositivos compatibles con HDR10+ porque es un estándar abierto que ha sido desarrollado por 2 gigantes como Amazon y Samsung. Por tanto, es lógico que la mayoría de fabricantes adopten este estándar, y no Dolby Vision, que queda relegado a las gamas altas.
Te recomendamos los mejores monitores del mercado
Esperamos que os haya sido útil esta información. Si tenéis alguna duda, podéis comentar abajo. ¿Qué opináis?
ASUS está lanzando la carcasa SSD TUF Gaming A2, que vendría a ser un dispositivo…
Android 16 va a cambiar la forma en la que se comparte audio. La primera…
Nvidia habría decidido seguir suministrando la GPU GeForce RTX 4050 incluso con la llegada de…