나는 Gentoo 또는 Funtoo와 같은 소스 기반 Linux 배포판이 바이너리 배포판(Fedora 또는 Debian)보다 더 빠르게 시스템을 "파괴"하는지 오랫동안 궁금했습니다. 저는 CPU와 하드 드라이브 성능 저하에 대해 이야기하고 있습니다.
물론 시스템을 업데이트할 때 소스에서 모든 것을 컴파일해야 하므로 시간이 더 오래 걸리고 CPU가 어려운 조건(더 따뜻하고 더 많은 부하)에서 사용됩니다.
이러한 시스템은 매주 수백 개의 패키지를 컴파일하는데 그것이 정말로 중요합니까? 그러한 시스템이 바이너리 기반 시스템보다 더 빨리 저하됩니까?
답변1
컴퓨터 하드웨어는 사용 중일 때 더 빨리 성능이 저하되지 않습니다.적절한 냉각.일반적으로 전자 제품을 죽이는 것은 열이며, 충분한 냉각을 통해 열을 완화할 수 있습니다. 최신 개인용 컴퓨터에서 이는 일반적으로 강제 공기에 의한 능동 냉각을 의미하지만 다른 가능성(수냉식 및 저전력 시스템의 경우 엄격한 수동/대류 냉각 포함)도 존재합니다.어떤 오작동으로 인해 오래된 컴퓨터의 속도가 느려지고 충돌이 발생합니까?그리고시간이 지남에 따라 라우터가 "나빠질" 수 있습니까?이것을 만져보세요.
있다이에 대한 한 가지 주요 예외는이는 SSD에 사용되는 것과 같은 플래시 기반 스토리지로, 각 플래시 셀이 마모되기 전에 쓰기 주기 횟수가 제한되어 있습니다. 그러나 최신 SSD는 이를 완화하기 위해 많은 노력을 기울이고 있으며 사람들이 의도한 작업 부하에 맞게 선택했다고 말할 수 있음에도 불구하고대부분의 클라이언트 및 서버 워크로드에서 내구성이 충분히 뛰어납니다., 플래시 마모 관점에서는 더욱 그렇습니다. 여기에는 많은 수의 파일(많은 작은 쓰기 포함)을 생성하는 경향이 있는 소프트웨어 컴파일이 포함되며 시스템에서 캐시할 수 있으므로 반드시 안정적인 저장소에 너무 많은 쓰기를 의미하지는 않습니다. 처럼세르쥬는 지적했다, 대안으로 일반적으로 저장을 위해 RAM을 사용하지만 충분한 RAM을 사용할 수 없는 경우 스왑 공간을 사용하는 tmpfs 유형 파일 시스템에서 빌드 실행을 고려할 수 있습니다. 특히 대규모 프로젝트의 경우 컴파일이 I/O 처리량이나 CPU 제한보다 IOPS 제한을 받을 가능성이 높기 때문에 컴파일 속도도 빨라질 수 있습니다. CPU가 제한되어 있더라도 RAM을 사용하여 소스 코드 파일을 저장함으로써 달성할 수 있는 더 높은 IOPS가 상황을 크게 악화시키지는 않습니다.
열을 제외하고 주요 전자 장치를 죽이는 요인은 전압 불순물입니다. 이는 전원 공급 장치의 한 요소이며 컴퓨터에서 수행하는 작업과 크게 관련이 없습니다. 적절한 정격의 전원 공급 장치(부품으로 컴퓨터를 직접 제작하는 경우 주로 문제가 됨)를 사용하고 입력 AC 불순물(전자 장치에 영향을 미침)을 제외하면 이는 모든 의도와 목적에 있어 문제가 되지 않습니다.
답변2
컴파일 시간에 불필요한 기능을 비활성화하여 실제로 모든 패키지를 조정하거나 컴파일러의 특정 최적화가 필요한 특정 x86 프로세서 복제본이 있는 경우 시스템은 바이너리 배포판에서 설치된 동일한 시스템보다 훨씬 빠르게 실행됩니다. 하드 드라이브 성능 저하의 경우 별도의 볼륨을 사용하여 업데이트가 완료될 때마다 포맷하는 재구축의 모든 중간 파일을 보관할 수 있습니다. 또 다른 옵션은 메모리와 스왑 파일/장치에 의해 실제로 백업되는 tmpfs 장치에서 이 모든 빌드를 수행하여 시스템을 다시 시작할 때마다 해당 내용이 지워지는 것입니다.