
У меня был raid 5 с 3 дисками на старом компьютере, но материнская плата умерла. Я вставил все диски в новый компьютер, но raid больше не хочет запускаться. При загрузке ПК я вижу все диски, и mdadm -E /dev/sd [bcd]1 сообщает мне, что все три диска чистые. Cat /proc/mdstat сообщает, что /dev/md0 : неактивен sdc13 sdd11 sdb10 Я использую Fedora 15 на этом компьютере. Любые советы по запуску этого raid будут высоко оценены!
--Отредактировано-- Тем временем я переустановил ОС (на новый, отдельный диск, ОС никогда не была частью рейда) и использовал CentOS 7.
Выходы:
mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 822d3a00:cf68046c:45de1427:d65beb68
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Nov 10 22:19:29 2014
Checksum : 195e3a86 - correct
Events : 1527192
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing)
mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4
Internal Bitmap : 8 sectors from superblock
Update Time : Tue Nov 11 19:01:52 2014
Checksum : d11417ca - correct
Events : 1527199
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
3907024896 blocks super 1.1
unused devices: <none>
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
Видимо, в этот момент он потерял один из своих дисков (также не в списке /dev), вероятно, кабель отвалился после перемещения компьютера. Я сейчас подключаюсь к нему по SSH из офиса (где я провожу ооочень много времени). Обычно mdadm -E /dev/sdX1 третьего диска выдает такой же вывод, как и для двух других дисков.
----РЕДАКТИРОВАТЬ----
Порт третьего диска оказался сломанным, после подключения его к другой карте я и здесь попадаю в mdadm -E!
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67
Internal Bitmap : 8 sectors from superblock
Update Time : Fri May 4 09:51:16 2012
Checksum : 262a346f - correct
Events : 82967
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
cat /proc/mdstat теперь говорит
# cat /proc/mdstat
Personalities :
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
5860537344 blocks super 1.1
unused devices: <none>
Итак, как мне теперь снова включить этот рейд в работу, хотя бы на достаточное время, чтобы скопировать с него как можно больше данных?
решение1
Я предполагаю, что вы выполнили новую установку и добавили диски в новый компьютер.
Сначала сделайте следующее:
mdadm --assemble --scan
и посмотрите, /proc/mdstat
активирован ли массив. Затем выполните:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
чтобы снова получить информацию о конфигурации в новом mdadm.conf.