¿Alguien puede explicarme la correlación entre la velocidad de bits y la velocidad de fotogramas?

¿Alguien puede explicarme la correlación entre la velocidad de bits y la velocidad de fotogramas?

Entiendo que cuanto mayor sea el FPS, más suave se verá la imagen en su resolución actual. Esto también corresponde a la frecuencia de actualización del monitor. Tu FPS solo puede llegar hasta tu frecuencia de actualización de 60 hz, 120 hz, etc., hasta que obtengas efectos extraños. (Si esto es incorrecto, explique también)

¿Cómo entra en juego la tasa de bits? ¿Cómo se relaciona con los FPS?

Respuesta1

Permítanme adoptar un enfoque completamente diferente, para complementar la respuesta de Johannes.

FPSo "fotogramas por segundo" tiene su origen en el mundo del cine. 35mmLa película solía funcionar a 24 fotogramas por segundo. En otras palabras, el movimiento que viste en la pantalla comocontinuoen realidad se debió a la "persistencia de la visión" que creaba un movimiento fluido a partir de 24 imágenes o fotogramas discretos. Con el vídeo surgieron otras velocidades de fotogramas. Los países con electricidad de 110 voltios a 60 Hz eligieron 30 fps porque de esta manera era fácil mantener el tiempo perfecto. Otros países con 50 Hz eligieron 25 fotogramas por segundo (¿ves la relación?).

Cuando Digital videola codificación entró en escena, comenzamos a hablar en términos de tasas de bits o la cantidad de información contenida (en un cuadro o por segundo). Con el mismo tipo de algoritmo de codificación, tasas de bits más altasgeneralmenteofrecer mejor calidad. Pero la misma cantidad de datos en un marco más pequeño (= menos píxeles) también significa mejor calidad. Y obviamente si se mide en segundos, se sumamás datos si hay más fotogramaspor segundo.

Por el contrario, si utiliza, digamos, 1024 KBps (kilobytes por segundo), entonces a 60 fps obtendrá una calidad inferior que a 24 fps, porque hay menos fotogramas en 24 fps sobre los que se distribuyen estos 1024, es decir, 1024/24 = 42,6 KB por segundo. marco. A 60 fps, son sólo 17,06 kilobytes por cuadro.

Aunque esto es simplista en muchos sentidos, da una idea general.

Respuesta2

Los FPS suelen ser los fotogramas por segundo que genera su tarjeta gráfica, por lo que pueden ser más altos que la frecuencia de actualización de su monitor y si se genera un nuevo fotograma mientras el monitor actualiza la imagen, cambia al nuevo fotograma (por lo que partes de la pantalla que ya se actualizaron en el ciclo actual muestran el último fotograma, las partes que aún no se han actualizado muestran el siguiente). Por lo tanto, incluso puedes notar una diferencia (aunque menor) entre 60 FPS y 90 FPS, incluso en un monitor de 60 Hz. Sin embargo, normalmente el efecto es más de naturaleza negativa; es posible que vea artefactos, conocidos como "desgarros", como resultado del cambio de fotograma a mitad de la imagen. Y tener una velocidad de fotogramas más alta suele ser totalmente inútil, a menos que te gusten los juegos profesionales (e incluso allí, el retraso en la actualización de los píxeles de tu monitor probablemente tenga un impacto mayor).

La tasa de bits mide cuántos bits por segundo puede generar su tarjeta gráfica. El vínculo entre FPS y BPS es, por lo tanto, el tamaño de un cuadro y cuántos bits se necesitan para codificar un píxel.
Los sistemas modernos utilizan colores de 32 bits. Entonces, si asumimos que está trabajando con una resolución de, digamos, 1000x100 (no es que sea común, pero es fácil hacer cálculos;)), un PBS de 320 000 000 PBS conduce a 100 FPS (320 000 000 / (1000x100x32) = 100).

información relacionada