Não tenho certeza do que mais verificar. Tudo abaixo parece sensato para mim, mas o sistema trava na inicialização. Este é um servidor doméstico com quatro discos inseridos em um Dell OP620. Cada par de discos é montado como RAID1: /
e data
. A matriz com falha é /
, daí a incapacidade de inicializar.
O erro completo, que se repete indefinidamente no console, é:
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
Uma captura de tela semelhante está disponívelaqui. Este sistema estava funcionando bem até a última reinicialização. O array é montado perfeitamente a partir de um USB de resgate do Puppy Linux:
mdadm --assemble --scan
fdiisk
mostra os discos disponíveis:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
Seguido pela blkid
exibição de UUIDs:
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
e posso montar o md126
dispositivo com:
mount /dev/md126 /mnt/tmp
Meu arquivo fstab (que funcionava anteriormente) é:
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
Responder1
Eu também tive esse problema. Percebi que seu MD tem o número MD126, que geralmente é um número aleatório criado no momento da inicialização, não o número demdadm.conf
Em /boot/grub/grub.cfg
, várias coisas referem-se a ambos /dev/md??
eUUID=.....
Ambos são necessários. Se a máquina estiver inicializando com um MD aleatório??? número todas as vezes, o initrd terá dificuldade para encontrar o ataque e entrará em um loop infinito.
Tive que alterar esses números porque recriei meu dispositivo MD.
update-grub
pega o md?
número do que está sendo executado no momento /proc/mdstats
e o coloca em/boot/grub/grub.cfg
update-initramfs
pega o md?
número do /etc/mdadm/mdadm.conf
arquivo e o coloca em /boot/initrd___
Ambos devem corresponder.
Quando você inicializa através de um disco de recuperação, /dev/md...
é qualquer número aleatório que o disco de recuperação compõe. Isso é diferente do md...
número em/etc/mdadm/mdadm.conf
O que fiz foi rodar mdadm --stop /dev/md...
em todos os discos. Então correu...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
Se você precisou mudar /etc/mdadm/mdadm.conf
, execute tambémupdate-initramfs
Parece que seu fstab diz / was on /dev/md1 during installation
; esse é o número que pode estar em /boot/grub/grub.cfg
e /etc/mdadm/mdadm.conf
.
Responder2
Recebi este erro na máquina virtual Xen que na verdade não possui nenhuma configuração RAID (mas a máquina Dom0/host possui).
O erro real não é o RAID, mas você precisa rolar um pouco o log, e na minha máquina o erro real é que não há discos (ou adaptador de rede/vif) presentes, então há algum problema com o fornecimento do Xenbus os dispositivos para a máquina virtual:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
Resolvi o problema reiniciando a máquina host. Depois disso, as máquinas virtuais xen criadas inicializaram normalmente novamente e viram todos os dispositivos.