我們有以下磁碟lsblk
,所有磁碟都不是lvm
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
且sdd
磁碟已滿(100%已使用)
狀態是sdc
磁碟sdd
已滿,我們可以使用它們
但我們有一個新磁碟 sde 和 sdf ,每個磁碟的大小為20G
所以
是否可以新增磁碟sde
以便sdc
為 sdc 提供另外 20G 空間?
答案1
您可以直接在 hadoop 中執行此操作,而不是在作業系統層級新增磁碟。您可以將它們新增至dfs.datanode.data.dir
屬性。格式為
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
我不能 100% 確定 hadoop 可以處理 RAW 磁碟。在這種情況下,您可以在每個新磁碟上建立一個大分割區,格式化它,掛載它/var/hadoop3
,/var/hadoop4
然後使用格式:
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>