Estoy ejecutando manjaro y simplemente configuré un RAID 0 adicional usando mdadm y lo formateé como ext4. Empecé a usarlo y todo funcionó muy bien. Sin embargo, después de reiniciar, la matriz desapareció. Supuse que simplemente no se había vuelto a ensamblar automáticamente, pero parece haber desaparecido por completo:
sudo mdadm --assemble --force /dev/md0 /dev/nvme0 /dev/nvme1 /dev/nvme2
mdadm: cannot open device /dev/nvme0: Invalid argument
mdadm: /dev/nvme0 has no superblock - assembly aborted
cat /proc/mdstat
cat: /proc/mdstat: No such file or directory
cat /etc/mdstat/mdstat.conf
cat: /etc/mdstat/mdstat.conf: No such file or directory
sudo mdadm --assemble --scan --force
mdadm: No arrays found in config file or automatically
sudo mdadm --assemble --force /dev/md0 /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1
mdadm: Cannot assemble mbr metadata on /dev/nvme0n1
mdadm: /dev/nvme0n1 has no superblock - assembly aborted
Entonces, ¿parece que incluso la configuración de ese Array ha desaparecido?Ylas supermanzanas? Ahora, por el momento, supongamos que las unidades no fallaron aleatoriamente durante el reinicio, aunque eso no es imposible. Por supuesto, no almacené ningún dato crucial en esa matriz, pero tengo que entender dónde salieron mal las cosas. Por supuesto, recuperar la matriz sería excelente y podría ahorrarme algunas horas de configuración.
Alguna información adicional
mdadm: Cannot assemble mbr metadata on /dev/nvme0n1"
Sin embargo, hasta donde recuerdo, los discos deberían usar GPT. ¿Debo configurar algún parámetro para intentar usar GPT?
Desde entonces descubrí que recrear la matriz sin formatear restaurará el acceso a todos los datos que contiene:
sudo mdadm --create --verbose --level=0 --metadata=1.2 --raid-devices=3 /dev/md/hpa /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1
pero cada vez que reinicio vuelve a desaparecer y tengo que recrearlo.
sudo mdadm --detail --scan
ARRAY /dev/md/hpa metadata=1.2 name=Mnemosyne:hpa UUID=02f959b6:f432e82a:108e8b0d:8df6f2bf
cat /proc/mdstat
Personalities : [raid0]
md127 : active raid0 nvme2n1[2] nvme1n1[1] nvme0n1[0]
1464763392 blocks super 1.2 512k chunks
unused devices: <none>
¿Qué más podría intentar para analizar este tema?
Respuesta1
Básicamente, la solución que funcionó para mí fue formatear mis unidades nvme con una única partición raid de Linux fd00 y luego usarla para el RAID.
gdisk /dev/nvme[0-2]n1
Comando n, luego presione Intro hasta que se le solicite un tipo de partición de código hexadecimal. Ingrese fd00, presione enter. Comando w y confirme. Repita esto para todas las unidades, luego proceda a crear su matriz como antes, pero esta vez use las particiones que creó en lugar del dispositivo de bloque, por ejemplo:
mdadm --create --verbose --level=0 --metadata=1.2 --raid-devices=3 /dev/md/hpa /dev/nvme0n1p1 /dev/nvme1n1p1 /dev/nvme2n1p1