¿Los lectores de Blu-ray afectan la calidad de la señal HDMI o DisplayPort?

¿Los lectores de Blu-ray afectan la calidad de la señal HDMI o DisplayPort?

Cuando el lector de Blu-ray de una computadora o un lector de Blu-ray independiente lee un disco Blu-ray, ¿se lleva a cabo algún tipo de proceso de conversión o decodificación? Es decir, ¿la señal cambia de alguna manera antes de ingresar al cable de señal HDMI o DisplayPort? Si es así, ¿se puede realizar este proceso de decodificación de manera diferente en diferentes computadoras, lectores de Blu-ray y reproductores independientes?

Para decirlo de otra manera: ¿el uso de diferentes unidades de lectura de Bluray podría dar como resultado que entren unos y ceros diferentes al cable HDMI/DisplayPort, o la conversión (si la hay) siempre se realiza exactamente de la misma manera?

Respuesta1

El BluRay contiene audio/vídeo comprimido (por ejemplo, vídeo H.264), mientras que HDMI transporta datos sin comprimir. Esto significa que los datos deben ser decodificados.

En una PC, la decodificación la realiza el software del reproductor (ya sea usando la CPU o la GPU o un chip H.264 dedicado que probablemente sea parte de la GPU). Los decodificadores variarán según el reproductor, pero eso no debería afectar la salida. Sin embargo, los decodificadores y reproductores suelen tener algún tipo de posprocesamiento (opcional la mayor parte del tiempo) y eso afectará la salida. Además, es fácil configurar mal la salida (por ejemplo, empezar con "negro" en el nivel 30 en lugar de 0).

Así que creo que la unidad que utilices para la reproducción de BluRay en tu PC no importa, pero sí el software utilizado. Los reproductores de hardware pueden variar según el posprocesamiento (si corresponde).

Respuesta2

Yo diría que depende de la computadora. Los lectores Bluray no están conectados directamente a la salida de video de una computadora. El Bluray actúa como un dispositivo de almacenamiento, almacenando un vídeo codificado. Dado que el video codificado almacenado no cambiará, es probable que la computadora decodifique el video con los mismos píxeles cada vez que reproduzca un desenfoque.

Por lo tanto, es de esperar que el resultado sea exactamente el mismo cada vez que lo haga. Pero dependiendo de la carga de trabajo actual con la que tenga que lidiar la computadora, puede o no mantenerse al día con el proceso de decodificación. La salida de vídeo puede experimentar tartamudeo o rotura de pantalla. A veces, se producen artefactos cuando una GPU se ha overclockeado demasiado o algún hardware falla.

Algunos vídeos están codificados con un algoritmo que permite definir una "calidad" de decodificación. Esto significa que el software elegirá una calidad según la configuración del usuario y la cantidad de trabajo que la CPU o GPU puede manejar.

HDMI a menudo admite una salida de audio, y es muy probable que el audio pase por algún ecualizador y posiblemente por otros filtros. Esto se hace con todo tipo de algoritmos.

Aunque se podría esperar exactamente la misma señal binaria, podría parecer diferente. Creo que es muy poco probable medir la misma señal dos veces, pero no digo que sea imposible...

información relacionada