Tenemos los siguientes discos lsblk
, todos los discos no son lvm.
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
y sdd
los discos están llenos (100% usados)
el estado es ese sdc
y sdd
los discos están llenos y podemos usarlos
pero tenemos nuevos discos sde y sdf, cada disco con un tamaño de20G
entonces
¿Es posible agregar el sde
disco para sdc
dar otros 20G para COSUDE?
Respuesta1
En lugar de agregar discos en el nivel del sistema operativo, puede hacerlo directamente en hadoop. Puedes agregarlos a la dfs.datanode.data.dir
propiedad. El formato es
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
No estoy 100% seguro de que Hadoop pueda manejar discos RAW. En tal caso, puede crear en cada disco nuevo una partición grande, formatearla, montarla /var/hadoop3
y /var/hadoop4
usar el formato:
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>