Eu pensei, é determinado pela largura horizontal do pixel, mas por que é1920*1080 1080pmas1280*720 720p? Não faz sentido ou é meufonteerrado?
Responder1
No "Velhos tempos", as TVs eram dispositivos analógicos - umCRTvarre um feixe de elétrons na frente da tela, da esquerda para a direita. Nesse sentido, as pessoas têm tentado argumentar que a TV analógica tem "infinito" resolução horizontal, mas têm uma resolução vertical exata - a imagem é formada por múltiplas linhas horizontais.
Dependendo de onde você estiver, isso teria sidoNTSC(525 linhas) ouAMIGO(625 linhas).
As resoluções modernas ainda são referidas por seu "contagem de linhas" - portanto, 1080 é a resolução vertical.
Com tais exibições, a imagem foi transmitidaentrelaçado- ou seja: o primeiro campo contém as linhas 1, 3, 5, etc... e o segundo campo contém as linhas 2, 4, 6, etc...
Com o advento da TV digital, a tecnologia de exibição muda – agora temos pixels discretos em vez de linhas. Uma imagem 2D feita a partir de uma matriz de pixels - a matriz possui dimensões específicas nos eixos horizontal e vertical.
Neste ponto, o entrelaçamento permanece disponível apenas para reduzir a largura de banda necessária para um fluxo de vídeo - na minha opinião, é uma ideia horrível que é fundamentalmente incompatível com sistemas de exibição digital.
Conforme mencionado anteriormente, as resoluções modernas ainda são referidas pelo seu "contagem de linhas". Mas, como mostrado acima, também temos que identificar se estamos nos referindo a "entrelaçado" vídeo (indicado por um i
) ou "progressivo" vídeo (indicado por um p
).
A taxa de quadros também pode ser especificada, por exemplo:
480i60
- 480 linhas, entrelaçadas, taxa de campo de 60 Hz (ou seja: taxa de quadros de 30 Hz)1080p30
- 1080 linhas, progressivo, taxa de quadros de 30 Hz
"... ok, mas de onde veio 480?"
A eletrônica analógica envolvida nos CRTs é imprecisa, e uma característica particular dos primeiros modelos era que, à medida que o aparelho esquentava, ou os capacitores e a eletrônica envelheciam, a imagem começava a mudar de forma. Além disso, o feixe de elétrons deve ser desligado e então redirecionado para a esquerda da tela para cada linha, e para o topo para cada novo campo/quadro - isso leva tempo e é a razão para"apagamento".
Para explicar isso, apenas um punhado de linhas digitalizadas deveria/esperava-se que fossem exibidas. O NTSC verifica 525 linhas, mas apenas 483 se forem destinadas à exibição - cada campo mostra aproximadamente 241,5 linhas para um visualizador (com 21 linhas adicionais de"apagamento"). ~240 linhas por campo (lembre-se, isso é entrelaçado) equivale a 480 linhas por quadro (no mundo progressivo). Assim, 480. Sim.
Para as resoluções digitais seguimos um padrão...ish:
480 * 1.5 = 720
- "HD pronto"720 * 1.5 = 1080
- "Full HD"1080 * 2 = 2160
- "4k" ou "Ultra-HD"
Então, na verdade "4k"não segue o * 1.5
padrão anterior e não tem realmente 4.000 pixels em nenhuma das dimensões - é 3.840 × 2.160.
"4k" éna verdade"Quatro vezes o número de pixels do Full HD". 1920 * 2 = 3840
e 1080 * 2 = 2160
. Ou coloque quatro monitores 1080p em uma grade 2 × 2 - você obtém 3840 × 2160.
Além disso, se estivermos usando 1080p
uma descrição de resolução, então "4k" deveria ser chamado 2160p
(o que acontece no mundo técnico).
Em resumo, no espaço consumidor/transmissão:
480
é porque esse é aproximadamente o número de linhas visíveis que o NTSC exibiria720
é porque isso é 1,5×480
1080
é porque isso é 1,5×720
2160
é porque isso é 2×1080
- "4k"é porque é uma questão de marketing - não é uma especificação técnica, e não acredito que haja qualquer estipulação em torno do uso dela...
Observação:Tenho falado sobre consumo/transmissão...
Dentro do Cinema existe DCI 2K (maiúsculo K
, 2048 × 1080) e DCI 4K (maiúsculo K
, 4096 × 2160), onde o 'K' presumivelmente se refere akibie a resolução horizontal. "DCI 4K"antecede ao consumidor"4k".
A proporção do DCI 4K não é 16:9, mas um pouco mais ampla de 256∶135... para alinhar a resolução novamente com 16:9, você pode aumentar a resolução vertical ou diminuir a horizontal... Mas eu Não estou totalmente convencido de que os padrões de cinema e transmissão evoluíram tanto.
O cinema evoluiu a partir de positivos de quadro inteiro (também conhecidos comofilme) diretamente para digital, enquanto a TV evoluiu de um feixe de elétrons de varredura (linha por linha) para digital. Isto é evidente tanto na transmissão como na forma comoVHStambém funciona.
Como um pouco mais, incluí o gráfico abaixo para expandir o "imagem muda de forma" declaração de cima.
O gráfico (deaqui) indica os vários "cofre de televisão"áreas... observe os cantos arredondados...
Importante:
- 5 é o "área digitalizada de televisão"
- 6 é o "área segura de televisão para ação"
- Rostos e informações importantes do enredo não devem ficar fora desta área
- 7 é o "área segura de televisão para títulos"
- Nenhum texto deve ficar fora desta área para garantir que legendas/notícias/etc... não ultrapassem a borda de uma tela antiga
Responder2
Attie explicou como as contagens de pixels verticais foram derivadas para resoluções tradicionais como SD (480p), HD (720p) e Full HD (1080p). Eu gostaria de discutir as medições K originárias da indústria cinematográfica. AK tem cerca de 1.000 pixels horizontais e 2K e 4K eram termos casuais que se referiam a resoluções de aproximadamente 2.000 e 4.000 pixels horizontais.
Diferentes medidas de K foram posteriormente padronizadas para cinema digital (2005) e televisão de consumo (2007).
Iniciativas de Cinema Digitalespecificou os padrões de resolução DCI 4K e 2K (4096 × 2160 e 2048 × 1080). Estas são as resoluções full frame para projetores de cinema digital, com muitos filmes exibidos em um formato de corte, como corte plano (3996 × 2160, proporção de aspecto 1,85∶1) ou corte CinemaScope (4096 × 1716, proporção de aspecto ≈2,39∶1) .
O padrão 4K para televisão de consumo (UHDTV1) pode ser rotulado com mais precisão como Ultra HD ou Quad HD. É equivalente a 4 quadros Full HD colocados juntos. É 3840 × 2160 com proporção de ≈1,78∶1.
OArtigo da Wikipedia sobre resolução 4Kfornece uma visualização útil que compara diferentes tamanhos de quadro.
Responder3
Sua avaliação de que a resolução é a densidade dos pixels está correta. Na verdade, para tudoexcetomonitores digitais, essa é a definição correta de resolução (bem, mais precisamente, é o menor detalhe que pode ser resolvido com precisão, o que se traduz funcionalmente no tamanho dos pontos que compõem uma imagem e na distância entre pixels). Se você alguma vez conversar com alguém da indústria gráfica, geralmente é isso que eles querem dizer quando dizem “resolução”.
A razão pela qual o termo tem um significado diferente para monitores de computador é em grande parte histórica, mas na verdade é facilmente explicada sem entrar em muita história.
Em uma exibição raster 1 , você tem o que é conhecido como resolução 'nativa'. Este é o maior número de pixels que você pode ter em cada lado da tela e geralmente é usado para descrever a tela. Por exemplo, uma tela Full HD tem uma resolução nativa de 1920 pixels horizontalmente e 1080 pixels verticalmente, portanto, uma tela Full HD com diagonal de aproximadamente 18 polegadas tem uma resolução (no sentido clássico) de cerca de 120 pontos por polegada (DPI) ( o que é realmente muito baixo em comparação com a mídia impressa).
No entanto, você pode executar a maioria dos monitores com resolução inferior à nativa, o que é funcionalmente equivalente a ter uma densidade de pixels maior no mesmo monitor. Pegar a mesma tela Full HD de 18 polegadas e executá-la em 1280x720 oferece o equivalente a 80 DPI na mesma tela.
Agora, o sistema operacional e o software aplicativo (geralmente) não se importam com as dimensões físicas exatas da tela, porque essas informações não são tão úteis para exibir informações, a menos que você precise exibir algo em 'tamanho real'. Diante disso, o sistema operacional apenas assume que o tamanho da tela nunca muda, o que significa que as diferentes contagens de pixels são funcionalmente equivalentes à resolução.
- Uma exibição que usa linhas e colunas de pontos individuais que podem ser ativados e desativados para produzir uma imagem. Quase todos os monitores de computador modernos são rasterizados, porque são muito mais fáceis de fabricar. Compare com um display vetorial, que apenas desenha linhas diretamente (sendo um dos exemplos mais reconhecíveis os displays usados nos gabinetes de fliperama Asteroids originais).