Восстановление RAID-массива

Восстановление RAID-массива

Я случайно испортил свою сборку Ubuntu 17.10 принудительной перезагрузкой (на 5-м жестком диске). В моей системе было 4 других жестких диска, являющихся частью массива RAID5. Теперь, когда я снова установил Ubuntu 17.10, как мне восстановить мой массив и данные?

Я пробовал оба варианта.

sudo mdadm --assemble --uuid=XXXXXXXXXX

и

sudo mdadm --assemble /dev/md0 /dev/sdb /dev/sdc /dev/sdd /dev/sde

и я могу затем заставить его смонтироваться, но когда я пытаюсь получить доступ к файлам, он запрашивает пароль, а папка пуста. Все члены массива показывают активные и чистые.

ПРИМЕЧАНИЕ: Я создал свой каталог /home на этом RAID до того, как произошел сбой, переместил и смонтировал его там. Пожалуйста, смотрите вывод ниже:

cat /proc/mdstat 

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid5 sde[4] sdb[0] sdd[2] sdc[1] 8790405120 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] 
bitmap: 0/22 pages [0KB], 65536KB chunk 
unused devices: <none> 

Вывод ниже для

sudo parted --list /dev/md0

Model: ATA TS128GSSD370S (scsi)
Disk /dev/sda: 128GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End    Size   File system  Name                  Flags
 1      1049kB  538MB  537MB  fat32        EFI System Partition  boot, esp
 2      538MB   128GB  127GB  ext4


Error: end of file while reading /dev/sdb
Retry/Ignore/Cancel? retry
Error: end of file while reading /dev/sdb
Retry/Ignore/Cancel? ignore                                               
Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.
OK/Cancel? ok                                                             
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sdb: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start  End  Size  File system  Name  Flags


Error: /dev/sdc: unrecognised disk label
Model: ATA ST3000VN000-1HJ1 (scsi)                                        
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: unknown
Disk Flags: 

Error: /dev/sdd: unrecognised disk label
Model: ATA ST3000VN000-1HJ1 (scsi)                                        
Disk /dev/sdd: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: unknown
Disk Flags: 

Error: end of file while reading /dev/sde
Retry/Ignore/Cancel? ignore
Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.
OK/Cancel? ok                                                             
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sde: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start  End  Size  File system  Name  Flags


Model: WD Elements 25A1 (scsi)
Disk /dev/sdf: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name      Flags
 1      1049kB  3001GB  3001GB  ntfs         Elements  msftdata


Model: Linux Software RAID Array (md)
Disk /dev/md0: 9001GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop
Disk Flags: 

Number  Start  End     Size    File system  Flags
 1      0.00B  9001GB  9001GB  ext4

После монтирования /dev/md0 /mnt

Вывод ls -la /dev/md*:

brw-rw---- 1 root disk 9, 0 Apr 13 16:31 /dev/md0

/dev/md:
total 0
drwxr-xr-x  2 root root   60 Apr 13 16:31 .
drwxr-xr-x 21 root root 4520 Apr 13 16:31 ..
lrwxrwxrwx  1 root root    6 Apr 13 16:31 0 -> ../md0

решение1

Это не проблема рейда, а скорее проблема с разрешениями. Если вы проверите вывод команды cat /proc/mdstat, вы увидите, что raid5 собран идеально, как указано [UUUU]в md0строке.

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sde[4] sdb[0] sdd[2] sdc[1] 8790405120 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
unused devices: <none>

Также таблица разделов (loop для loop-устройства) и файловая система (ext4) в порядке. После монтирования loop-устройства mount /dev/md0 /mntвы должны увидеть что-то вроде:

$ mount /dev/md0 /mnt
$ ls -la /mnt
  total 12
  drwxr-xr-x  3 root root 4096 Jun 29  2016 .
  drwxr-xr-x 10 root root 4096 Dec  7 10:42 ..
  drwxr-xr-x  3 1001 2001 4096 Feb  6  2017 oldusername

Теперь вам нужно изменить владельца старого дома пользователя на вашего текущего пользователя:

$ sudo chown $(stat -c '%u:%g' ~/) /mnt/oldusername
$ ls -la /mnt
  total 12
  drwxr-xr-x  3 root        root         4096 Jun 29  2016 .
  drwxr-xr-x 10 root        root         4096 Dec  7 10:42 ..
  drwxr-xr-x  3 currentuser currentgroup 4096 Feb  6  2017 oldusername

Связанный контент