
На моем домашнем сервере (Debian Jessie) было два диска по 1 ТБ для хранения больших объемов данных, настроенных как зеркальный том RAID1 на неформатированных устройствах (без разделов).
Когда я решил заменить эти диски на два новых диска по 3 ТБ, у меня возникли некоторые трудности с поиском хороших рекомендаций/примеров по переносу данных.
В конце концов, я выбрал процедуру загрузки машины в среду GParted Live и использования partclone.btrfs для копирования каждого исходного диска на его замену. Это просто, но рискованно, так как клонирование дублирует UUID тома/подтома, поэтому небезопасно перезагружать машину со всеми подключенными дисками, так как дублирующиеся идентификаторы будут путать btrfs.
После отключения старых дисков я перезагрузился, и машина загрузилась и перемонтировала новые диски в исходные UUID, что указывает на успешное клонирование. Однако, когда я запустил btrfs scrap, он выдал много тысяч устранимых ошибок. Казалось, что для каждой контрольной суммы блока может быть одна ошибка.
После завершения очистки том выглядел нормально, а повторный проход очистки не выявил ошибок.
я нашелодин постна этом сайте от человека, у которого возникла та же проблема при клонировании одного диска, так что, похоже, это не относится только к томам RAID.
Кто-нибудь знает, является ли это ожидаемым поведением при перемещении данных между физическими устройствами (контрольные суммы становятся недействительными) или partclone не настолько «поддерживает btrfs», как утверждается?