Ubuntu Linux 18.04.2 サーバーで MDADM を使用して 15 ドライブの RAID6 アレイを使用しています。さらに 5 台のドライブをインストールして RAID アレイに追加すると、アレイの再形成が始まりました。しかし、その後、ドライブのうち 3 台に Windows パーティションがあることに気付きました。失敗したのでしょうか? 次の 30 時間の再構築時間で何が起こるのでしょうか?
それは次のようになります:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465.8G 0 disk
└─sda1 8:1 0 465.8G 0 part /
sdb 8:16 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdc 8:32 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdd 8:48 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sde 8:64 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdf 8:80 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdg 8:96 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdh 8:112 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdi 8:128 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdj 8:144 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdk 8:160 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdl 8:176 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdm 8:192 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdn 8:208 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdo 8:224 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdp 8:240 0 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdq 65:0 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdr 65:16 1 1.8T 0 disk
├─md0 9:0 0 23.7T 0 raid6 /srv/patellae
└─sdr1 65:17 1 1.8T 0 part
sds 65:32 1 1.8T 0 disk
└─md0 9:0 0 23.7T 0 raid6 /srv/patellae
sdt 65:48 0 1.8T 0 disk
├─md0 9:0 0 23.7T 0 raid6 /srv/patellae
└─sdt1 65:49 0 1.8T 0 part
sdu 65:64 0 1.8T 0 disk
├─md0 9:0 0 23.7T 0 raid6 /srv/patellae
└─sdu1 65:65 0 1.8T 0 part
/dev/sdr、/dev/sdt、/dev/sdu には他のパーティションがあります。fdisk で確認すると、次のようになります。
sudo fdisk -l /dev/sdr
Disk /dev/sdr: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type
/dev/sdr1 63 3906220814 3906220752 1.8T 83 Linux
sudo fdisk -l /dev/sdt
Disk /dev/sdt: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x6745d7bd
Device Boot Start End Sectors Size Id Type
/dev/sdt1 2048 3907026943 3907024896 1.8T 7 HPFS/NTFS/exFAT
sudo fdisk -l /dev/sdu
Disk /dev/sdu: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0xf05f7577
Device Boot Start End Sectors Size Id Type
/dev/sdu1 2048 3907026943 3907024896 1.8T 7 HPFS/NTFS/exFAT
再構築にはまだしばらく時間がかかります。
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdu[21] sdt[20] sds[19] sdr[18] sdq[17] sdn[16] sdj[1] sdm[14] sdl[3] sdk[2] sdp[5] sdo[13] sdf[11] sdb[12] sde[6] sdg[7] sdi[4] sdd[15] sdc[10] sdh[0]
25393984512 blocks super 1.2 level 6, 512k chunk, algorithm 2 [20/20] [UUUUUUUUUUUUUUUUUUUU]
[=>...................] reshape = 8.2% (160558080/1953383424) finish=1847.6min speed=16171K/sec
bitmap: 1/15 pages [4KB], 65536KB chunk
unused devices: <none>
これらのドライブには 2 つの exFAT パーティションがあります。データは破損するのでしょうか? ドライブを 1 つずつ取り外して、そのたびに再構築する必要があるのでしょうか?
最初にフォーマットしておくべきでした。
答え1
それらの Windows パーティションは消えます。
そうは言っても、私の意見では、あなたの設定は2つのアカウントでは良くありません -
ソフトウェア RAID には、RAW ドライブではなくパーティション (FD としてマークされている) を使用する必要があります。また、RAID 6 ボリュームは、ドライブの数が多く、再構築中に 2 台以上のドライブが故障する可能性が予想以上に高いため、高度な保護を提供するには大きすぎます。リスクを軽減するには、RAID 10、またはより優れた ZFS、複数の RAID 1 セット、および LVM を検討します。