%20unter%20Debian.png)
Ich habe 3 Festplatten als Intel Rapid Storage RAID5 konfiguriert, konfiguriert über die integrierte Firmware des Motherboards meines Desktops (Asus P8Z77-V LX) über das BIOS. Das RAID wird dann mit einer NTFS-Partition formatiert.
Im Herbst habe ich die Laufwerke auf einen Headless-Heimserver mit Debian 8 verschoben, auf dem mdadm 3.2 lief. Dieser konnte das RAID automatisch erkennen und problemlos ein Gerät dafür erstellen.
Ich kann jedoch keine neuere Version von mdadm (3.3+) dazu bringen, das RAID zu erkennen. Ich habe schließlich versucht, die Superblöcke zu löschen und ein Linux RAID5 neu zu erstellen, aber das führte zu einem völlig kaputten Dateisystem, so dass selbst die Wiederherstellung der Rohdaten nur kaputte Dateien fand (ein Problem könnte sein, dass Intel Rapid Storage Streifenblockgrößen in KIBIbyte berechnet, während mdadm nur Streifen mit Blöcken in KILObyte erstellt).
Ich habe die Daten inzwischen wiederhergestellt, indem ich die Festplatten wieder auf meinen Desktop verschoben und darauf wie ursprünglich ein Intel RAID neu erstellt habe.
Ich möchte jedoch aktualisierte Versionen von mdadm verwenden und es nicht einfach auf 3.2 festlegen, vor allem, weil diese für ein Upgrade auf Debian 9 erforderlich sind. Weiß jemand, wie das geht?
Das Folgende stammt von meinem Desktop-System Arch, auf dem mdadm 4.0 läuft und die BIOS-RAID-Unterstützung deaktiviert ist, sodass nur die physischen Laufwerke angezeigt werden. Wie Sie sehen, sind die RAID-Geräte sdc, sdd und sde.
[root@desktop-linux fabrizio]# lsblk -o +FSTYPE
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT FSTYPE
sda 8:0 0 111,8G 0 disk
164375471010
└─sda1 8:1 0 111,8G 0 part / ext4
sdb 8:16 0 119,2G 0 disk
├─sdb1 8:17 0 500M 0 part ntfs
└─sdb2 8:18 0 118,8G 0 part /mnt/win10_os ntfs
sdc 8:32 0 1,8T 0 disk isw_raid_member
sdd 8:48 0 1,8T 0 disk isw_raid_member
sde 8:64 0 1,8T 0 disk isw_raid_member
sdf 8:80 0 465,8G 0 disk
└─sdf1 8:81 0 465,8G 0 part /mnt/win10_utilities ntfs
brechen
[root@desktop-linux fabrizio]# mdadm --examine /dev/sd[cde]
/dev/sdc:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 0028b89b
Family : 0028b89b
Generation : 00000062
Attributes : All supported
UUID : 137d7329:b874d09c:ecb307ad:bfd6b70a
Checksum : 1468caa4 correct
MPB Sectors : 2
Disks : 3
RAID Devices : 1
Disk00 Serial : WD-WCC4M4EYDENC
State : active
Id : 00000002
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
[Volume0]:
UUID : 92c1c9bd:d1701a29:94bf5aa6:be8fd1d8
RAID Level : 5 <-- 5
Members : 3 <-- 3
Slots : [UUU] <-- [UUU]
Failed disk : none
This Slot : 0
Array Size : 7814047744 (3726.03 GiB 4000.79 GB)
Per Dev Size : 3907024136 (1863.01 GiB 2000.40 GB)
Sector Offset : 0
Num Stripes : 15261812
Chunk Size : 128 KiB <-- 128 KiB
Reserved : 0
Migrate State : initialize
Map State : normal <-- uninitialized
Checkpoint : 567605 (768)
Dirty State : clean
Disk01 Serial : WD-WCC4M5AK581C
State : active
Id : 00000003
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
Disk02 Serial : WD-WCC4M5AK5JKY
State : active
Id : 00000004
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
/dev/sdd:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 0028b89b
Family : 0028b89b
Generation : 00000062
Attributes : All supported
UUID : 137d7329:b874d09c:ecb307ad:bfd6b70a
Checksum : 1468caa4 correct
MPB Sectors : 2
Disks : 3
RAID Devices : 1
Disk01 Serial : WD-WCC4M5AK581C
State : active
Id : 00000003
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
[Volume0]:
UUID : 92c1c9bd:d1701a29:94bf5aa6:be8fd1d8
RAID Level : 5 <-- 5
Members : 3 <-- 3
Slots : [UUU] <-- [UUU]
Failed disk : none
This Slot : 1
Array Size : 7814047744 (3726.03 GiB 4000.79 GB)
Per Dev Size : 3907024136 (1863.01 GiB 2000.40 GB)
Sector Offset : 0
Num Stripes : 15261812
Chunk Size : 128 KiB <-- 128 KiB
Reserved : 0
Migrate State : initialize
Map State : normal <-- uninitialized
Checkpoint : 567605 (768)
Dirty State : clean
Disk00 Serial : WD-WCC4M4EYDENC
State : active
Id : 00000002
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
Disk02 Serial : WD-WCC4M5AK5JKY
State : active
Id : 00000004
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
/dev/sde:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 0028b89b
Family : 0028b89b
Generation : 00000062
Attributes : All supported
UUID : 137d7329:b874d09c:ecb307ad:bfd6b70a
Checksum : 1468caa4 correct
MPB Sectors : 2
Disks : 3
RAID Devices : 1
Disk02 Serial : WD-WCC4M5AK5JKY
State : active
Id : 00000004
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
[Volume0]:
UUID : 92c1c9bd:d1701a29:94bf5aa6:be8fd1d8
RAID Level : 5 <-- 5
Members : 3 <-- 3
Slots : [UUU] <-- [UUU]
Failed disk : none
This Slot : 2
Array Size : 7814047744 (3726.03 GiB 4000.79 GB)
Per Dev Size : 3907024136 (1863.01 GiB 2000.40 GB)
Sector Offset : 0
Num Stripes : 15261812
Chunk Size : 128 KiB <-- 128 KiB
Reserved : 0
Migrate State : initialize
Map State : normal <-- uninitialized
Checkpoint : 567605 (768)
Dirty State : clean
Disk00 Serial : WD-WCC4M4EYDENC
State : active
Id : 00000002
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
Disk01 Serial : WD-WCC4M5AK581C
State : active
Id : 00000003
Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)
mdadm --detail --scan gibt eine leere Zeichenfolge zurück.
Antwort1
In meinem Fall bin ich mir nicht sicher, wie es unter Debian 8 funktioniert hat, aber unter Debian 10 wird Intel RST von dmraid gehandhabt und automatisch ein virtuelles Blockgerät unter /dev/mapper/isw_<10lettershere>_Volume_0000 zusammengestellt
dmesg zeigte diese relevanten Zeilen:
[21120.363597] md/raid:mdX: device sda operational as raid disk 0
[21120.363600] md/raid:mdX: device sdb operational as raid disk 1
[21120.363601] md/raid:mdX: device sdc operational as raid disk 2
[21120.363602] md/raid:mdX: device sdd operational as raid disk 3
[21120.364249] md/raid:mdX: raid level 5 active with 4 out of 4 devices, algorithm 0
dmsetup hat das Gerät aufgelistet:
rsaxvc@localghost:/$ sudo dmsetup ls
isw_bcegjbdfjj_Volume_0000 (254:0)
Beim Durchsuchen des Blockgeräts nach Partitionen mit partprobe wurden diese gefunden:
rsaxvc@localghost:/$ sudo partprobe /dev/mapper/isw_<10letters>_Volume_0000
rsaxvc@localghost:/$ ls /dev/mapper/isw_*
/dev/mapper/isw_<10letters>_Volume_0000
/dev/mapper/isw_<10letters>_Volume_0000p1
/dev/mapper/isw_<10letters>_Volume_0000p2
An diesem Punkt konnte ich eine der Partitionen mounten, die ein anderes Betriebssystem auf dem Intel RST-Volume unter Debian 10 erstellt hatte. Dies sind die relevanten Versionen, die mit Debian 10 auf meinem Rechner geliefert wurden:
rsaxvc@localghost:~$ dmraid --version
dmraid version: 1.0.0.rc16 (2009.09.16) shared
dmraid library version: 1.0.0.rc16 (2009.09.16)
device-mapper version: 4.39.0
rsaxvc@localghost:~$ uname -a
Linux localghost 4.19.0-13-amd64 #1 SMP Debian 4.19.160-2 (2020-11-28) x86_64 GNU/Linux
rsaxvc@localghost:~$ lsb_release -a
No LSB modules are available.
Distributor ID: Debian
Description: Debian GNU/Linux 10 (buster)
Release: 10
Codename: buster