Degradação de CPU e HD em distribuição Linux baseada em origem

Degradação de CPU e HD em distribuição Linux baseada em origem

Fiquei me perguntando por muito tempo se distribuições Linux baseadas em código-fonte, como Gentoo ou Funtoo, estão "destruindo" seu sistema mais rápido do que distribuições binárias (como Fedora ou Debian). Estou falando sobre degradação da CPU e do disco rígido.

Claro, quando você está atualizando seu sistema, ele tem que compilar tudo do código-fonte, então leva mais tempo e sua CPU é usada em condições difíceis (está mais quente e mais carregada).

Esses sistemas compilam centenas de pacotes semanalmente, então isso realmente importa? Esse sistema se degrada mais rapidamente do que os baseados em binário?

Responder1

O hardware do computador não se degrada mais rapidamente quando está em uso, assumindoresfriamento adequado.Geralmente, o que mata os eletrônicos é o calor, e o calor pode ser mitigado por resfriamento suficiente; em computadores pessoais modernos, isso normalmente significa resfriamento ativo por ar forçado, mas existem outras possibilidades (incluindo resfriamento a água e, em sistemas de baixa potência, resfriamento estritamente passivo/convectivo).Quais problemas de funcionamento fazem com que computadores antigos fiquem lentos e travem?eÉ possível que um roteador “estrague” com o tempo?toque nisso.

uma exceção principal a isso,e esse é o armazenamento baseado em flash, como o usado em SSDs, que tem um número limitado de ciclos de gravação antes que cada célula flash se desgaste. No entanto, os SSDs modernos fazem de tudo para mitigar isso, e apesar do que as pessoas possam dizer, você selecionou para a carga de trabalho pretendidana maioria das cargas de trabalho de cliente e servidor são bastante duráveis, ainda mais do ponto de vista do desgaste instantâneo. Isso inclui software de compilação, que embora tenda a criar um grande número de arquivos (envolvendo muitas pequenas gravações), também pode ser armazenado em cache pelo sistema e, portanto, não implica necessariamente em tantas gravações em armazenamento estável. ComoSérgio destacou, como alternativa, você pode considerar executar a compilação em um sistema de arquivos do tipo tmpfs, que normalmente usa RAM para armazenamento, mas recorrerá ao espaço de troca se não houver RAM suficiente disponível. É provável que isso também acelere a compilação, uma vez que, especialmente para grandes projetos, é mais provável que a compilação seja restrita por IOPS do que pela taxa de transferência de E/S ou pela CPU; e mesmo que seja limitado pela CPU, o IOPS mais alto que pode ser obtido através do uso de RAM para armazenar arquivos de código-fonte não piorará significativamente a situação.

O principal assassino de eletrônicos, além do calor, são as impurezas de tensão, que são um fator da fonte de alimentação e não estão relacionadas às tarefas que você executa no computador. Com uma fonte de alimentação com classificação adequada (o que é principalmente uma preocupação se você mesmo construir um computador a partir de peças) e além das impurezas CA de entrada (que afetarão qualquer sistema eletrônico), isso para todos os efeitos não será um problema.

Responder2

Se você realmente faz o ajuste de todos os pacotes desabilitando funcionalidades desnecessárias em tempo de compilação ou se você tem algum clone específico do processador x86 que requer algumas otimizações específicas do compilador, então seu sistema rodará ainda mais rápido do que o mesmo sistema instalado a partir de uma distribuição binária. Quanto à degradação do disco rígido - você pode usar um volume separado para manter todos os arquivos intermediários dessas reconstruções que você formata sempre que a atualização for concluída. A outra opção é realizar toda essa construção em um dispositivo tmpfs que é realmente copiado pela memória e trocar arquivos/dispositivos, para que seu conteúdo seja limpo de qualquer maneira a cada reinicialização do sistema.

informação relacionada