![ESXi 6.0 montando RDM como volume local](https://rvso.com/image/1457445/ESXi%206.0%20montando%20RDM%20como%20volume%20local.png)
Acabei de atualizar meu host ESXi para 6.0 e notei um efeito colateral estranho. Agora, ao inicializar, meu dispositivo local RDM é montado automaticamente pelo próprio hipervisor e minha VM que o utiliza não consegue inicializar porque o dispositivo está bloqueado pelo sistema operacional (o erro que estou recebendo é Failed to lock the file
).
Se eu listar todos os dispositivos:
[root@esx:~] esxcli storage filesystem list
Mount Point Volume Name UUID Mounted Type Size Free
------------------------------------------------- ----------- ----------------------------------- ------- ------ ------------- ------------
/vmfs/volumes/4cdacf34-9bc2bc46-e644-d48564c85da5 SYSTEM HDU 4cdacf34-9bc2bc46-e644-d48564c85da5 true VMFS-5 154618822656 127827705856
/vmfs/volumes/4cdacf03-d1fb2b7d-6384-d48564c85da5 DATA HDU 4cdacf03-d1fb2b7d-6384-d48564c85da5 true VMFS-5 2000112582656 893103636480
/vmfs/volumes/5000b526-be6827b9-b9e9-009c02a7fbf2 5000b526-be6827b9-b9e9-009c02a7fbf2 true vfat 299712512 83451904
/vmfs/volumes/ad7377ea-9bfcba10-6bad-896a6ee35f64 ad7377ea-9bfcba10-6bad-896a6ee35f64 true vfat 261853184 87711744
/vmfs/volumes/0baa70e5-8a38dacf-3d88-bca98a363fc0 0baa70e5-8a38dacf-3d88-bca98a363fc0 true vfat 261853184 122646528
/vmfs/volumes/3c3693e8-f77a642a-1910-5c6bdcb26d3a Hypervisor3 3c3693e8-f77a642a-1910-5c6bdcb26d3a true vfat 299778048 157663232
/vmfs/volumes/b901cb7d-fd6e00e0-e5eb-b36b42d0950f Hypervisor2 b901cb7d-fd6e00e0-e5eb-b36b42d0950f true vfat 261853184 261849088
/vmfs/volumes/4cdacf0f-59b94c5a-79e7-d48564c85da5 4cdacf0f-59b94c5a-79e7-d48564c85da5 true vfat 4293591040 4269015040
/vmfs/volumes/5b569e71-4ede41ca-d19f-f2af4b6cee7c Hypervisor1 5b569e71-4ede41ca-d19f-f2af4b6cee7c true vfat 261853184 169762816
/vmfs/volumes/localRDM RDM 5512f47e-00000000-0000-000000000000 true ufs 1998251364352 288346738688
O dispositivo que estou tentando desmontar é o último
Mount Point Volume Name UUID Mounted Type Size Free
------------------------------------------------- ----------- ----------------------------------- ------- ------ ------------- ------------
/vmfs/volumes/localRDM RDM 5512f47e-00000000-0000-000000000000 true ufs 1998251364352 288346738688
Conforme afirmado pelos documentosTentei desmontá-lo, mas o sistema operacional está reclamando e parece não querer desmontá-lo:
[root@esx:~] esxcli storage filesystem unmount -l RDM
No volume with label 'RDM' was found
[root@esx:~] esxcli storage filesystem unmount -p /vmfs/volumes/localRDM
No NAS volume was found mounted on '/vmfs/volumes/localRDM'
[root@esx:~] esxcli storage filesystem unmount -u 5512f47e-00000000-0000-000000000000
No volume with uuid '5512f47e-00000000-0000-000000000000' was found
De acordo com a documentação, a sintaxe para desmontar um dispositivo é:
# esxcli storage filesystem unmount [-u UUID | -l label | -p path ]
mas como você pode ver, nenhum resultado até agora.
Fiquei me perguntando se eu remover o arquivo vmdk deste dispositivo e recriá-lo pode resolver o problema, mas tenho medo de perder todos os dados nele contidos.
Editado 1
Ok, excluí o mapeamento do arquivo vmdk, mas o ESXi ainda está montando automaticamente o disco (e não, não há perda de dados)
Editado 2
Vejo que não há relação direta com a passagem do meu disco e a montagem automática do ESXi, pois conectei uma unidade UFS2 recém-formatada e o ESXi também está montando-o automaticamente (e ainda não há RDM para este criado)
Responder1
Eu tive o mesmo problema com unidades RDM UFS usadas no NAS4Free sendo mapeadas como uma pasta, então fui aos Fóruns VMWare e pedi ajuda.
Aqui está a resposta do usuário themiron nos Fóruns VMWare.
é possível colocar o módulo ufs na lista negra com o seguinte comando esxcli, portanto, nenhuma montagem automática de volumes ufs acontecerá. a reinicialização do host é necessária
$ módulo do sistema esxcli set -m ufs -e false
https://communities.vmware.com/thread/517516 (adicionou o link para a fonte original conforme indicado)