同じサイズの画面でも PPI が異なるとバッテリーへの影響は異なりますか?

同じサイズの画面でも PPI が異なるとバッテリーへの影響は異なりますか?

画面の解像度によってバッテリー寿命にどのような影響があるか調べてみました。ネット上では、次のような答えがよく見られます。いいえ「画面解像度を変更すると、バッテリー寿命は延びますか?」という質問に対して、画面上のピクセルの総数は変わらないため、GPU などに同じ労力が費やされるためだと言われています。ここからは、これが正しいかどうかはわかりませんが、私には正当なように思えます。

それでも、私の質問は、「サイズ、明るさは同じでも解像度が異なる画面は、バッテリーに異なる影響を与えるでしょうか?」です。私にとっては、処理する必要があるピクセル数が異なるため、バッテリーに異なる影響を与えると思いますが、これが真実かどうかはわかりません。では、本当にそうでしょうか?

つまり、PPI だけが異なっているだけでまったく同じ 2 つのモニターの電力消費は異なるのでしょうか?

答え1

物理的な PPI (および解像度) 以外は同一の 2 つの LCD ディスプレイのうち、PPI (および解像度) が高いディスプレイの方が、少なくとも次の 2 つの (関連する) 理由により、より多くの電力を消費します。

  1. ピクセル数が増えると、電力を供給するトランジスタも増える
  2. パネル上のトランジスタが増える = 光スループットが減少 = 他のディスプレイの明るさに合わせるために必要な電力が増加。

ネイティブ解像度以外の信号をモニターに送信する5月本来はオフになっているスケーラー回路の使用が必要になるため、実際に(ディスプレイの)電力使用量が増加する、または5月他のリソースの必要性が減ることで、コストが下がる。ないディスプレイ外部の電力使用量の変化を考慮します (例: GPU。さまざまな要因に基づいて増加または減少する可能性があります)。


この質問をした日は、とても素晴らしい日でした。Anandtechがちょうど公開した記事2015 Razor Blade 14 インチの QHD+ と 1080p ディスプレイ オプションを比較します。

これは完璧ではありません。ディスプレイ間の差は PPI/解像度よりも大きく、ディスプレイだけでなくシステム全体の電力をカウントしているからです。しかし、1080p では QHD+ よりもバッテリー寿命が 17 ~ 22% 長いことがわかりました。

答え2

いいえ、画面の解像度はバッテリー寿命に影響しません。その理由は、おっしゃるとおり、実際のピクセル数は同じだからです。モニターはピクセルのオン/オフを切り替えることができません。ピクセル サイズはハードウェア ベースであり、オンザフライで変更できないため、オン/オフにすると文字通りモニターに小さな黒い点が見えることになります。

アップデート:PPIは異なるが他はすべて同じですモニターのピクセル数が異なり、消費電力も異なります (PPI が高いモニターの方が多くの電力を消費します)。

以下は、モニターが実際にピクセルを仮想的に「拡大縮小」する仕組みを理解するのに役立つ、類推によるより詳細な説明です。モニターは、表示されている内容に関係なく、利用可能なすべてのピクセルを使用することに注意してください。


ズームインしすぎ

コンピュータ画面上で画像が拡大または縮小される様子を考えてみましょう。拡大しすぎると、画像内の各ピクセルのサイズがモニター上の 1 ピクセル以上を占め始めるため、画像がぼやけてしまいます。

画像を表示するために、モニターのピクセル サイズは実際には変更されませんが、複数のモニター ピクセルを使用して 1 つの画像ピクセルを表示するようになります。

これは、画像の密度が増加したが、モニターの密度は増加も減少もしておらず、同じ数のピクセルが表示され続けていることを意味します。

ズームアウトしすぎ

問題をより明確にするために、逆の立場で考えてみましょう。画像を縮小しすぎると、モニターのピクセルが画像内のピクセルよりも大きくなります。

画像を元の高さと幅の半分に縮小するとします。モニターが画像を正しく表示するには、各ピクセルが画像の 4 つのピクセル (各方向に 2 つずつ、2x2 の正方形) を表す必要があります。モニターは、ピクセルが表す画像上の 4 つのピクセルの平均を計算して計算した色をピクセルに表示することでこれを実現します。

これは、現在のサイズで画像全体を表示するのに十分なピクセルがモニターにないため、画像の密度がいくらか低下していることを意味します。ここで「モニターのピクセルが足りない」と言うのは、ピクセルが画面の表面積全体をカバーし、ピクセルの数がピクセルのサイズによって制限されるためです。

明確に言えば、現在のサイズでは画像のピクセル密度がモニターのピクセル密度よりも高いため、モニターのピクセルが大きすぎて、画像を現在のサイズで可能な限り最高の品質で表示することができない、ということと同じです。ただし、モニターは画像を可能な限り最高の解像度で表示し、画像を表示するためにすべてのピクセルを使用します。


より詳しい情報

見てこの郵便受けRetina ディスプレイ (通常の HD ディスプレイの 2 倍の HD 品質) の画像品質とピクセル密度について説明します。これにより、画面上の利用可能なすべてのピクセルを使用しながら、モニターがコンテンツに合わせてピクセル サイズを「拡大縮小」する方法が理解しやすくなります。

答え3

モニターのサイズとアスペクト比が同じであると仮定すると、1 インチあたりのピクセル数は同じになるため、出力は同じになるはずです。

たとえば、1920x1080 を表示できるモニターが 2 つあり、1 つがフル解像度 (1920x1080) を使用していて、もう 1 つが解像度を 1280x720 に設定していた場合、1280x720 は画面に収まるように拡大されますが、それでも 1920x1080 ピクセルがすべて使用されるため、同じ数のピクセルが使用されます。

これは、両方のモニターがまったく同じサイズとタイプであると仮定した場合です (LCD のタイプが異なると、電力消費が変わる可能性があります)。

関連情報