
3 ディスクの mdadm raid5 ボリューム (/dev/sd[abc] で作成) がありましたが、サーバーの電源が落ちたときに、5 ディスク (/dev/sd[df] を追加) に再形成中でした。これは、ubuntu 8.10 intrepid 64 ビット サーバー (カーネル 2.6.27)、mdadm バージョン 2.6.4、ソースからビルドされたものです。UPS モニター デーモンは、その時点で次のコマンドを実行できました。
mdadm --stop /dev/md0
shutdown -P now
ボックスを再び起動して実行したとき、RAID が自動的に起動しなかったので、次のコマンドを使用して RAID を再び起動しました。
mdadm --assemble /dev/md0 /dev/sd[abcdf]
再起動して再形成プロセスが始まりました。ただし、ディスクは 4 つだけでした。/dev/sdf にはスーパーブロックがなかったので、このプロセスには参加できませんでした。追加し直してみました:
mdadm --add /dev/md0 /dev/sdf
しかし、これはホット スペアとして追加されただけで、RAID の欠落している 5 番目のメンバーとして追加されたわけではありません。したがって、プロセスのこの時点でホット スペアはあまり役に立たないので、--remove を使用して削除しました。さらに悪いことに、これによりディスクにスーパーブロックが追加され、ディスクがホット スペアとして識別されるようになりました。ただし、--zero-superblock を使用して削除するのは簡単です。
私が知りたいのは、このディスクをアレイの適切な場所に戻すにはどうすればよいかということです。データが不良であると信じる理由はなく、スーパーブロックだけが不良です。または、再形成がスーパーブロックなしで進行したので、この時点で再度追加しようとするのは適切ではないのでしょうか。
/proc/mdstatの内容:
root@FS1:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda[0] sdd[4] sdc[2] sdb[1]
1953524736 blocks super 0.91 level 5, 512k chunk, algorithm 2 [5/4] [UUU_U]
[======>..............] reshape = 33.4% (326807040/976762368) finish=1175.3min speed=9216K/sec
unused devices: <none>
/etc/mdadm/mdadm.confの内容
root@FS1:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=4128dcfb:b5e905ae:60b633ef:af4ede72
# This file was auto-generated on Wed, 15 Jul 2009 09:09:57 -0400
# by mkconf $Id$
mdadm --examine --scan の出力
root@FS1:~# mdadm --examine --scan
ARRAY /dev/md0 level=raid5 num-devices=5 UUID=4128dcfb:b5e905ae:60b633ef:af4ede72
spares=1
mdadm -Dの出力
root@FS1:~# mdadm -D /dev/md0
/dev/md0:
Version : 00.91.03
Creation Time : Sun Jul 12 15:57:27 2009
Raid Level : raid5
Array Size : 1953524736 (1863.03 GiB 2000.41 GB)
Used Dev Size : 976762368 (931.51 GiB 1000.20 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jul 16 23:34:21 2009
State : clean, degraded, recovering
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Reshape Status : 33% complete
Delta Devices : 2, (3->5)
UUID : 4128dcfb:b5e905ae:60b633ef:af4ede72 (local to host FS1)
Events : 0.216044
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
2 8 32 2 active sync /dev/sdc
3 0 0 3 removed
4 8 48 4 active sync /dev/sdd
答え1
最初に、md0デバイスが既存のセットアップを完了するようにする現時点では、それをいじらないでください。それは、その唯一の命令に従おうと忙しいのです。アレイをクリーンな状態に戻します。
状況が安定したら、5 番目のドライブの「古い」エントリを削除します。次に、ドライブをアレイに追加し、最初と同じように再形成します。ただし、今回は 3 台ではなく 4 台のディスクから開始します。