
Centos7インストーラーを使用して、4台のハードドライブを備えた古いサーバーにRAID 10をセットアップしましたが、結果に非常に困惑しています。
/proc/mdstatの出力は次の通りです
Personalities : [raid10] [raid1]
md123 : active raid1 sda4[0] sdb4[1] sdc4[3] sdd4[2]
1049536 blocks super 1.0 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md124 : active raid10 sda1[0] sdb1[1] sdd1[2] sdc1[3]
838860800 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/7 pages [0KB], 65536KB chunk
md125 : active raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2]
1048576 blocks super 1.2 [4/4] [UUUU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md126 : active raid10 sda2[0] sdb2[1] sdc2[3] sdd2[2]
16793600 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
md127 : active raid10 sdb5[1] sda5[0] sdc5[3] sdd5[2]
116574208 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 1/1 pages [4KB], 65536KB chunk
彼が適切な RAID 10 を作成したかどうかはわかりません。これの何が問題なのか説明してくれる人はいますか?
問題が見当たらない場合は、CentOS インストーラーが私を混乱させたのだと思います。/boot パーティションと /boot/efi パーティションに RAID 1 を選択するよう強制されました。そのため、これらのパーティションがディスクのどこにあるのか、ディスク障害が発生した場合に起動できるかどうか疑問に思っていました。
lsblkの出力は次のとおりです
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465,8G 0 disk
├─sda1 8:1 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sda2 8:2 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sda3 8:3 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sda4 8:4 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sda5 8:5 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdb 8:16 0 465,8G 0 disk
├─sdb1 8:17 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdb2 8:18 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdb3 8:19 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdb4 8:20 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdb5 8:21 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdc2 8:34 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdc3 8:35 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdc4 8:36 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdc5 8:37 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sdd 8:48 0 465,8G 0 disk
├─sdd1 8:49 0 400,1G 0 part
│ └─md124 9:124 0 800G 0 raid10 /data
├─sdd2 8:50 0 8G 0 part
│ └─md126 9:126 0 16G 0 raid10 [SWAP]
├─sdd3 8:51 0 1G 0 part
│ └─md125 9:125 0 1G 0 raid1 /boot
├─sdd4 8:52 0 1G 0 part
│ └─md123 9:123 0 1G 0 raid1 /boot/efi
└─sdd5 8:53 0 55,6G 0 part
└─md127 9:127 0 111,2G 0 raid10 /
sr0 11:0 1 1024M 0 rom
答え1
はい、その通りです。
# cat /proc/mdstat
ブートはRAID1
md125 : アクティブ raid1 sda3[0] sdb3[1] sdc3[3] sdd3[2] 1048576 ブロック スーパー 1.2 [4/4] [UUUU] ビットマップ: 0/1 ページ [0KB]、65536KB チャンク
残りはRAID10
基本的には# cat /proc/mdstatを発行することで確認できます。
答え2
ソフトウェア RAID を使用する場合、一般的に推奨されるアプローチは、ドライブをパーティション分割し、異なるドライブのパーティションを使用して複数の RAID アレイを作成するというものです。
もちろん、パーティション化されていない未加工のドライブから単一のアレイを作成し、その結果得られた RAID アレイをパーティション化することも可能です。ただし、多くのツール、特にブートローダは、このようなセットアップでは適切に動作することが困難になります。