Ухудшение производительности ЦП и жесткого диска в исходном дистрибутиве Linux

Ухудшение производительности ЦП и жесткого диска в исходном дистрибутиве Linux

Я долгое время задавался вопросом, не «уничтожают» ли исходные дистрибутивы Linux, такие как Gentoo или Funtoo, вашу систему быстрее, чем бинарные (вроде Fedora или Debian). Я говорю о деградации процессора и жесткого диска.

Конечно, когда вы обновляете свою систему, ей приходится компилировать все из исходников, поэтому это занимает больше времени, а ваш процессор используется в тяжелых условиях (он нагревается и нагружается сильнее).

Такие системы компилируют сотни пакетов еженедельно, так имеет ли это значение? Деградирует ли такая система быстрее, чем основанные на двоичных данных?

решение1

Аппаратное обеспечение компьютера не изнашивается быстрее при его использовании, если предположить, чтодостаточное охлаждение.Как правило, электронику убивает тепло, а его воздействие можно смягчить с помощью достаточного охлаждения; в современных персональных компьютерах это обычно означает активное охлаждение при помощи принудительного воздуха, но существуют и другие возможности (включая водяное охлаждение, а в маломощных системах — строго пассивное/конвективное охлаждение).Какие неисправности приводят к замедлению работы и сбоям в работе старых компьютеров?иМожет ли маршрутизатор со временем «испортиться»?коснитесь этого.

Естьодно главное исключение из этого,и это флэш-память, такая как та, что используется в SSD, которая имеет ограниченное количество циклов записи, прежде чем каждая ячейка флэш-памяти износится. Однако современные SSD идут на многое, чтобы смягчить это, и, несмотря на то, что люди могут вам сказать, выбраны для предполагаемой рабочей нагрузкив большинстве клиентских и серверных рабочих нагрузок достаточно долговечны, тем более с точки зрения износа флэш-памяти. Это включает в себя компиляцию программного обеспечения, которое, хотя и имеет тенденцию создавать большое количество файлов (включая множество небольших записей), также в значительной степени кэшируется системой и, таким образом, не обязательно подразумевает так много записей в стабильное хранилище. КакСерж указал, в качестве альтернативы вы можете рассмотреть запуск сборки в файловой системе типа tmpfs, которая обычно использует оперативную память для хранения, но будет прибегать к пространству подкачки, если достаточно оперативной памяти недоступно. Это также, вероятно, ускорит компиляцию, поскольку, особенно для больших проектов, компиляция, скорее всего, будет ограничена IOPS, чем пропускной способностью ввода-вывода или процессором; и даже если она ограничена процессором, более высокий IOPS, достижимый за счет использования оперативной памяти для хранения файлов исходного кода, не сделает ситуацию значительно хуже.

Главным убийцей электроники, помимо тепла, являются примеси напряжения, которые являются фактором источника питания и в значительной степени не связаны с тем, какие задачи вы выполняете на компьютере. С правильно рассчитанным источником питания (что в основном является проблемой, если вы собираете компьютер самостоятельно из деталей) и помимо примесей входного переменного тока (которые влияют на любую электронику), это, по сути, не будет проблемой.

решение2

Если вы действительно настраиваете все пакеты, отключая ненужные функции во время компиляции, или у вас есть какой-то определенный клон процессора x86, который требует определенных оптимизаций от компилятора, то ваша система будет работать даже быстрее, чем та же система, установленная из бинарного дистрибутива. Что касается деградации жесткого диска, вы можете использовать отдельный том для хранения всех ваших промежуточных файлов таких пересборок, которые вы просто форматируете каждый раз после завершения обновления. Другой вариант — выполнять всю эту сборку на устройстве tmpfs, которое фактически резервируется памятью и файлами/устройствами подкачки, поэтому его содержимое в любом случае очищается при каждом перезапуске системы.

Связанный контент