
Я только что настроил RAID 10 на старом сервере с 4 жесткими дисками с помощью установщика centos7, но я очень озадачен результатом.
Вот вывод /proc/mdstat
Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
1049536 blocks super 1.0 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/7 pages [0KB], 65536KB chunk
md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
1048576 blocks super 1.2 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 1/1 pages [4KB], 65536KB chunk
Я не уверен, создал ли он правильный RAID 10. Может кто-нибудь объяснить, в чем тут проблема?
Если вы не видите проблемы, я думаю, что установщик centos сбил меня с толку. Я был вынужден выбрать RAID 1 для раздела /boot и раздела /boot/efi. Поэтому мне было интересно, где находятся эти разделы на дисках и смогу ли я загрузиться в случае отказа диска
Вот вывод lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465,8G 0 disk
├─sda1 8:1 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sda2 8:2 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sda3 8:3 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sda4 8:4 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sda5 8:5 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdb 8:16 0 465,8G 0 disk
├─sdb1 8:17 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdb2 8:18 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdb3 8:19 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdb4 8:20 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdb5 8:21 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdc2 8:34 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdc3 8:35 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdc4 8:36 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdc5 8:37 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdd 8:48 0 465,8G 0 disk
├─sdd1 8:49 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdd2 8:50 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdd3 8:51 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdd4 8:52 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdd5 8:53 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sr0 11:0 1 1024M 0 rom
решение1
Да, это верно. Как вы можете видеть из
# cat /proc/mdstat
Загрузка — RAID1
md125: активный raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 блоков super 1.2 [4/4] [UUUU] битовая карта: 0/1 страниц [0 КБ], фрагмент 65536 КБ
А остальное - RAID10
По сути, вы можете узнать это, выполнив команду # cat /proc/mdstat
решение2
При использовании программного RAID предпочтительный подход, как правило, тот же, что и у вас: разбить диски на разделы, а затем создать несколько массивов RAID с разделами с разных дисков.
Конечно, можно создать один массив из сырых, неразмеченных дисков, а затем разбить полученный массив RAID на разделы. Однако многим инструментам, и особенно загрузчикам, будет трудно работать должным образом в таких настройках.