RAID 10 на Centos 7

RAID 10 на Centos 7

Я только что настроил RAID 10 на старом сервере с 4 жесткими дисками с помощью установщика centos7, но я очень озадачен результатом.

Вот вывод /proc/mdstat

Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
      1049536 blocks super 1.0 [4/4] [UUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
      838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 0/7 pages [0KB], 65536KB chunk

md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
     1048576 blocks super 1.2 [4/4] [UUUU]
     bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
     16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
     116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 1/1 pages [4KB], 65536KB chunk

Я не уверен, создал ли он правильный RAID 10. Может кто-нибудь объяснить, в чем тут проблема?

Если вы не видите проблемы, я думаю, что установщик centos сбил меня с толку. Я был вынужден выбрать RAID 1 для раздела /boot и раздела /boot/efi. Поэтому мне было интересно, где находятся эти разделы на дисках и смогу ли я загрузиться в случае отказа диска

Вот вывод lsblk

NAME      MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
sda         8:0    0 465,8G  0 disk
├─sda1      8:1    0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sda2      8:2    0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sda3      8:3    0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sda4      8:4    0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sda5      8:5    0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdb         8:16   0 465,8G  0 disk
├─sdb1      8:17   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdb2      8:18   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdb3      8:19   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdb4      8:20   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdb5      8:21   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdc         8:32   0 465,8G  0 disk
├─sdc1      8:33   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdc2      8:34   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdc3      8:35   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdc4      8:36   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdc5      8:37   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdd         8:48   0 465,8G  0 disk
├─sdd1      8:49   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdd2      8:50   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdd3      8:51   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdd4      8:52   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdd5      8:53   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sr0        11:0    1  1024M  0 rom

решение1

Да, это верно. Как вы можете видеть из

# cat /proc/mdstat

Загрузка — RAID1

md125: активный raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 блоков super 1.2 [4/4] [UUUU] битовая карта: 0/1 страниц [0 КБ], фрагмент 65536 КБ

А остальное - RAID10

По сути, вы можете узнать это, выполнив команду # cat /proc/mdstat

решение2

При использовании программного RAID предпочтительный подход, как правило, тот же, что и у вас: разбить диски на разделы, а затем создать несколько массивов RAID с разделами с разных дисков.

Конечно, можно создать один массив из сырых, неразмеченных дисков, а затем разбить полученный массив RAID на разделы. Однако многим инструментам, и особенно загрузчикам, будет трудно работать должным образом в таких настройках.

Связанный контент