ESXi 6.0 monta RDM como volumen local

ESXi 6.0 monta RDM como volumen local

Acabo de actualizar mi host ESXi a 6.0 y noté un efecto secundario extraño. Ahora, cuando inicio, el propio hipervisor monta automáticamente mi dispositivo local RDM y mi máquina virtual que lo usa no puede iniciar porque el dispositivo está bloqueado por el sistema operativo (el error que recibo es Failed to lock the file).

Si enumero todos los dispositivos:

[root@esx:~] esxcli storage filesystem list
Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/4cdacf34-9bc2bc46-e644-d48564c85da5  SYSTEM HDU   4cdacf34-9bc2bc46-e644-d48564c85da5     true  VMFS-5   154618822656  127827705856
/vmfs/volumes/4cdacf03-d1fb2b7d-6384-d48564c85da5  DATA HDU     4cdacf03-d1fb2b7d-6384-d48564c85da5     true  VMFS-5  2000112582656  893103636480
/vmfs/volumes/5000b526-be6827b9-b9e9-009c02a7fbf2               5000b526-be6827b9-b9e9-009c02a7fbf2     true  vfat        299712512      83451904
/vmfs/volumes/ad7377ea-9bfcba10-6bad-896a6ee35f64               ad7377ea-9bfcba10-6bad-896a6ee35f64     true  vfat        261853184      87711744
/vmfs/volumes/0baa70e5-8a38dacf-3d88-bca98a363fc0               0baa70e5-8a38dacf-3d88-bca98a363fc0     true  vfat        261853184     122646528
/vmfs/volumes/3c3693e8-f77a642a-1910-5c6bdcb26d3a  Hypervisor3  3c3693e8-f77a642a-1910-5c6bdcb26d3a     true  vfat        299778048     157663232
/vmfs/volumes/b901cb7d-fd6e00e0-e5eb-b36b42d0950f  Hypervisor2  b901cb7d-fd6e00e0-e5eb-b36b42d0950f     true  vfat        261853184     261849088
/vmfs/volumes/4cdacf0f-59b94c5a-79e7-d48564c85da5               4cdacf0f-59b94c5a-79e7-d48564c85da5     true  vfat       4293591040    4269015040
/vmfs/volumes/5b569e71-4ede41ca-d19f-f2af4b6cee7c  Hypervisor1  5b569e71-4ede41ca-d19f-f2af4b6cee7c     true  vfat        261853184     169762816
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

El dispositivo que estoy intentando desmontar es el último.

Mount Point                                        Volume Name  UUID                                 Mounted  Type             Size          Free
-------------------------------------------------  -----------  -----------------------------------  -------  ------  -------------  ------------
/vmfs/volumes/localRDM                             RDM          5512f47e-00000000-0000-000000000000     true  ufs     1998251364352  288346738688

Como lo afirman los documentosIntenté desmontarlo pero el sistema operativo se queja y no parece querer desmontarlo:

[root@esx:~] esxcli storage filesystem unmount -l RDM
No volume with label 'RDM' was found
[root@esx:~] esxcli storage filesystem unmount -p /vmfs/volumes/localRDM
No NAS volume was found mounted on '/vmfs/volumes/localRDM'
[root@esx:~] esxcli storage filesystem unmount -u 5512f47e-00000000-0000-000000000000
No volume with uuid '5512f47e-00000000-0000-000000000000' was found

Según los documentos, la sintaxis para desmontar un dispositivo es:

# esxcli storage filesystem unmount [-u UUID | -l label | -p path ]

pero como puedes ver no hay resultados hasta el momento.

Me preguntaba si elimino el archivo vmdk de este dispositivo y lo vuelvo a crear para resolver el problema, pero me temo que perderé todos los datos que contiene.

Editado 1

Ok, eliminé la asignación del archivo vmdk pero ESXi todavía está montando automáticamente el disco (y no, no hay pérdida de datos)

Editado 2

Veo que no hay una relación directa con el paso de mi disco y el montaje automático de ESXi, ya que conecté una unidad UFS2 recién formateada y ESXi también lo está montando automáticamente (y todavía no se ha creado ningún RDM para este)

Respuesta1

Tuve el mismo problema con las unidades RDM UFS utilizadas en NAS4Free asignadas como una carpeta, así que fui a los foros de VMWare y pedí ayuda.

Aquí está la respuesta del usuario themiron en los foros de VMWare.

Es posible incluir el módulo ufs en la lista negra con el siguiente comando esxcli, por lo que no se producirá el montaje automático de volúmenes ufs. es necesario reiniciar el host

$ conjunto de módulos del sistema esxcli -m ufs -e false

https://communities.vmware.com/thread/517516 (agregó el enlace a la fuente original como se señaló)

información relacionada