Centos 7 上の RAID 10

Centos 7 上の RAID 10

Centos7インストーラーを使用して、4台のハードドライブを備えた古いサーバーにRAID 10をセットアップしましたが、結果に非常に困惑しています。

/proc/mdstatの出力は次の通りです

Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
      1049536 blocks super 1.0 [4/4] [UUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
      838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 0/7 pages [0KB], 65536KB chunk

md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
     1048576 blocks super 1.2 [4/4] [UUUU]
     bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
     16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
     116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
     bitmap: 1/1 pages [4KB], 65536KB chunk

彼が適切な RAID 10 を作成したかどうかはわかりません。これの何が問題なのか説明してくれる人はいますか?

問題が見当たらない場合は、CentOS インストーラーが私を混乱させたのだと思います。/boot パーティションと /boot/efi パーティションに RAID 1 を選択するよう強制されました。そのため、これらのパーティションがディスクのどこにあるのか、ディスク障害が発生した場合に起動できるかどうか疑問に思っていました。

lsblkの出力は次のとおりです

NAME      MAJ:MIN RM   SIZE RO TYPE   MOUNTPOINT
sda         8:0    0 465,8G  0 disk
├─sda1      8:1    0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sda2      8:2    0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sda3      8:3    0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sda4      8:4    0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sda5      8:5    0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdb         8:16   0 465,8G  0 disk
├─sdb1      8:17   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdb2      8:18   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdb3      8:19   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdb4      8:20   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdb5      8:21   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdc         8:32   0 465,8G  0 disk
├─sdc1      8:33   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdc2      8:34   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdc3      8:35   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdc4      8:36   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdc5      8:37   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sdd         8:48   0 465,8G  0 disk
├─sdd1      8:49   0 400,1G  0 part
│ └─md124   9:124  0   800G  0 raid10 /data
├─sdd2      8:50   0     8G  0 part
│ └─md126   9:126  0    16G  0 raid10 [SWAP]
├─sdd3      8:51   0     1G  0 part
│ └─md125   9:125  0     1G  0 raid1  /boot
├─sdd4      8:52   0     1G  0 part
│ └─md123   9:123  0     1G  0 raid1  /boot/efi
└─sdd5      8:53   0  55,6G  0 part
  └─md127   9:127  0 111,2G  0 raid10 /
sr0        11:0    1  1024M  0 rom

答え1

はい、その通りです。

# cat /proc/mdstat

ブートはRAID1

md125 : アクティブ raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 ブロック スーパー 1.2 [4/4] [UUUU] ビットマップ: 0/1 ページ [0KB]、65536KB チャンク

残りはRAID10

基本的には# cat /proc/mdstatを発行することで確認できます。

答え2

ソフトウェア RAID を使用する場合、一般的に推奨されるアプローチは、ドライブをパーティション分割し、異なるドライブのパーティションを使用して複数の RAID アレイを作成するというものです。

もちろん、パーティション化されていない未加工のドライブから単一のアレイを作成し、その結果得られた RAID アレイをパーティション化することも可能です。ただし、多くのツール、特にブートローダは、このようなセットアップでは適切に動作することが困難になります。

関連情報