ソースベースの Linux ディストリビューションでの CPU と HD の劣化

ソースベースの Linux ディストリビューションでの CPU と HD の劣化

Gentoo や Funtoo のようなソースベースの Linux ディストリビューションは、バイナリ ディストリビューション (Fedora や Debian など) よりも早くシステムを「破壊」してしまうのではないかと、長い間疑問に思っていました。CPU とハード ドライブの劣化について話しているのです。

もちろん、システムを更新するときは、すべてをソースからコンパイルする必要があるため、時間がかかり、CPU が厳しい条件で使用されます (温度が上昇し、負荷が高くなります)。

このようなシステムは毎週何百ものパッケージをコンパイルしますが、それは本当に問題でしょうか? このようなシステムはバイナリベースのシステムよりも早く劣化しますか?

答え1

コンピュータのハードウェアは、使用中に劣化が早まることはない。十分な冷却。一般的に、電子機器を壊すのは熱であり、十分な冷却によって熱を軽減できます。現代のパーソナル コンピューターでは、これは通常、強制空気による能動冷却を意味しますが、他の可能性 (水冷や、低電力システムでは、厳密に受動的/対流的な冷却など) も存在します。古いコンピュータの速度低下やクラッシュの原因となる故障は何ですか?そしてルーターが時間とともに「故障」する可能性はありますか?これに触れてください。

があるこれには大きな例外が一つあります。SSDで使用されているようなフラッシュベースのストレージでは、各フラッシュセルが消耗するまでの書き込み回数が限られています。しかし、現代のSSDはこれを緩和するために多大な努力を払っており、意図したワークロードのために選択されたと言われるにもかかわらず、ほとんどのクライアントとサーバーのワークロードは十分に耐久性がありますフラッシュウェアの観点からは、さらにその傾向が強い。これにはソフトウェアのコンパイルが含まれるが、これは大量のファイル(多数の小さな書き込みを含む)を作成する傾向があるが、システムによって大量にキャッシュ可能であるため、必ずしも安定したストレージへの書き込みがそれほど多く発生するわけではない。セルジュは指摘した代わりに、tmpfs タイプのファイル システムでビルドを実行することを検討できます。このファイル システムは通常、ストレージに RAM を使用しますが、十分な RAM が利用できない場合はスワップ領域を使用します。これにより、コンパイル速度も速まる可能性があります。特に大規模なプロジェクトの場合、コンパイルは I/O スループットや CPU の制約よりも IOPS の制約を受ける可能性が高いためです。また、CPU の制約を受ける場合でも、RAM を使用してソース コード ファイルを保存することで IOPS を高くできるため、状況が大幅に悪化することはありません。

熱以外で電子機器を台無しにする主な要因は電圧の不純度です。これは電源の要因であり、コンピューターで実行するタスクとはほとんど関係ありません。適切な定格の電源 (部品からコンピューターを自分で組み立てる場合は主に懸念事項) を使用し、入力 AC の不純度 (これはあらゆる電子機器に影響します) を除けば、事実上これは問題になりません。

答え2

コンパイル時に不要な機能を無効にしてすべてのパッケージを実際にチューニングする場合、またはコンパイラからの特定の最適化を必要とする x86 プロセッサの特定のクローンがある場合は、バイナリ ディストリビューションからインストールされた同じシステムよりもさらに高速にシステムが実行されます。ハード ドライブの劣化については、更新が完了するたびにフォーマットする再構築などの中間ファイルをすべて別のボリュームに保存することができます。もう 1 つのオプションは、このすべての構築を、実際にはメモリとスワップ ファイル/デバイスによってバックアップされる tmpfs デバイスで実行することです。そのため、そのコンテンツはシステムを再起動するたびにクリアされます。

関連情報