
Raid0을 디스크 2개에서 3개(Amazon AWS의 각 1TB EBS)로 늘리고 싶었지만 그 이후에는 크기가 변경되지 않았습니다. RAID는 두 개의 디스크 sdc와 sdd로 시작되었고 새 디스크는 sdf였습니다.
다음은 성장 명령입니다:
sudo mdadm --grow /dev/md0 --raid-devices=3 --add /dev/xvdf
몇 시간 후 mdstats에 다음 정보가 표시되었습니다(사용 cat /proc/mdstat
).
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid0 xvdf[3] xvdd[1] xvdc[0]
3221223936 blocks super 1.2 512k chunks
그래서 나는 그것이 효과가 있기를 바랐지만 df -h
나에게 다음을 주었다:
Filesystem Size Used Avail Use% Mounted on
/dev/md0 2.0T 1.6T 297G 85% /mnt/md0
그리고 sudo mdadm --detail /dev/md0
보여주었다:
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 22 16:05:40 2014
Raid Level : raid0
Array Size : 3221223936 (3072.00 GiB 3298.53 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun Sep 7 01:37:39 2014
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Number Major Minor RaidDevice State
0 202 32 0 active sync /dev/sdc
1 202 48 1 active sync /dev/sdd
3 202 80 2 active sync /dev/sdf
따라서 RAID에는 3개의 장치와 올바른 크기(3072GB)가 있는 것처럼 보이지만 df
이를 표시하지 않습니다. 이상하게도 새 디스크(sdf)는 3번으로 나열되고 2번은 나열되지 않습니다.
참고: 포맷 없이 "빈" EBS를 사용했습니다. (이미 포맷된) RAID에 추가하기 전에 새 RAID 디스크를 포맷해야 합니까?
내가 무엇을 놓치고 있나요? 새 RAID 디스크를 (부분적으로) 포맷해야 합니까(RAID에 필요한 데이터가 아직 남아 있지만 백업이 있음)? df
RAID를 잘못 읽었거나 RAID 확장이 아직 완료되지 않았습니까 ?
답변1
귀하의 단계에서는 /dev/md0에 있는 실제 파일 시스템 확장에 대해 언급하지 않았습니다. RAID('물리적' 디스크)를 확장한 다음 이를 확인하려면 그 위에 파일 시스템(ext4 등)을 확장해야 합니다 df
.