Linux ソフトウェア RAID が故障したドライブで「自身」を組み立てました。なぜでしょうか?

Linux ソフトウェア RAID が故障したドライブで「自身」を組み立てました。なぜでしょうか?

私は 2 つの RAID1 アレイを持っています: md3 (sda3 + sdb3) と md5 (sda5 + sdb5)。

パーティション テーブルを変更したかったので、sdb ディスクを意図的に失敗させました。

# mdadm /dev/md3 --fail /dev/sdb3
# mdadm /dev/md5 --fail /dev/sdb5

しばらくして/proc/mdstatをチェックしたところ、

Personalities : [raid1] md5 : active raid1 sdb5[1]
      104792064 blocks super 1.2 [2/1] [_U]

md3 : active raid1 sda3[0]
      52396032 blocks super 1.2 [2/1] [U_]

unused devices: <none>

つまり、sdb5 は失敗したのに、md5 は sda5 ではなく sdb5 でアセンブルされました。どうしてこのようなことが起こるのでしょうか?

私はmdadm v3.3を使用しており、カーネルは3.14.3-200.fc20.x86_64です。

関連情報