Centos 7의 RAID 10

Centos 7의 RAID 10

Centos7 설치 프로그램을 사용하여 4개의 하드 드라이브가 있는 기존 서버에 RAID 10을 설정했지만 결과가 매우 혼란스럽습니다.

/proc/mdstat의 출력은 다음과 같습니다.

Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
      1049536 blocks super 1.0 [4/4] [UUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
      838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 0/7 pages [0KB], 65536KB chunk

md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
     1048576 blocks super 1.2 [4/4] [UUUU]
     bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
     16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
     116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 1/1 pages [4KB], 65536KB chunk

그가 적절한 RAID 10을 생성했는지 잘 모르겠습니다. 누군가 이것이 무엇이 잘못되었는지 설명해 줄 수 있습니까?

문제가 보이지 않는다면 Centos 설치 프로그램이 나를 혼란스럽게 한 것 같습니다. /boot 파티션과 /boot/efi 파티션에 대해 RAID 1을 선택해야 했습니다. 그래서 디스크의 해당 파티션은 어디에 있는지, 디스크 오류가 발생할 경우 부팅할 수 있는지 궁금합니다.

다음은 lsblk 출력입니다.

NAME      MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
sda         8:0    0 465,8G  0 disk
├─sda1      8:1    0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sda2      8:2    0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sda3      8:3    0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sda4      8:4    0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sda5      8:5    0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdb         8:16   0 465,8G  0 disk
├─sdb1      8:17   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdb2      8:18   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdb3      8:19   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdb4      8:20   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdb5      8:21   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdc         8:32   0 465,8G  0 disk
├─sdc1      8:33   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdc2      8:34   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdc3      8:35   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdc4      8:36   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdc5      8:37   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdd         8:48   0 465,8G  0 disk
├─sdd1      8:49   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdd2      8:50   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdd3      8:51   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdd4      8:52   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdd5      8:53   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sr0        11:0    1  1024M  0 rom

답변1

네, 맞습니다. 에서 볼 수 있듯이

# cat /proc/mdstat

부팅은 RAID1입니다.

md125 : 활성 raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 블록 super 1.2 [4/4] [UUUU] 비트맵: 0/1 페이지 [0KB], 65536KB 청크

나머지는 RAID10입니다.

따라서 기본적으로 # cat /proc/mdstat를 실행하여 확인할 수 있습니다.

답변2

소프트웨어 RAID를 사용할 때 선호되는 접근 방식은 일반적으로 드라이브를 분할한 다음 다른 드라이브의 파티션으로 여러 RAID 어레이를 만드는 것입니다.

물론 분할되지 않은 원시 드라이브에서 단일 어레이를 생성한 다음 결과 RAID 어레이를 분할하는 것도 가능합니다. 그러나 많은 도구, 특히 부트로더는 이러한 설정에서 제대로 작동하는 데 어려움을 겪습니다.

관련 정보