
내 freenas 서버에 zpool status
2개의 zfs 풀이 있다고 알려줍니다 : data
& freenas-boot
:
% zpool status
pool: data
state: ONLINE
scan: scrub repaired 0 in 0 days 04:16:16 with 0 errors on Mon Nov 20 00:59:24 2017
config:
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
gptid/3e08fdba-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3eba62c2-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3f704246-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/40249d11-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
errors: No known data errors
pool: freenas-boot
state: ONLINE
scan: scrub repaired 0 in 0 days 00:00:13 with 0 errors on Sun Mar 4 03:45:14 2018
config:
NAME STATE READ WRITE CKSUM
freenas-boot ONLINE 0 0 0
ada0p2 ONLINE 0 0 0
errors: No known data errors
data
내 zpool 에 대한 통계를 얻고 싶지만 zdb
오류가 발생합니다.
% sudo zdb -b data
zdb: can't open 'data': No such file or directory
하지만 수영장에서는 작동합니다 freenas-boot
.
% sudo zdb -b freenas-boot
Traversing all blocks to verify nothing leaked ...
loading space map for vdev 0 of 1, metaslab 55 of 119 ...
2.56G completed ( 881MB/s) estimated time remaining: 0hr 00min 00sec
No leaks (block sum matches space maps exactly)
bp count: 281124
ganged count: 0
bp logical: 5928553472 avg: 21088
bp physical: 2636954624 avg: 9380 compression: 2.25
bp allocated: 3376803840 avg: 12011 compression: 1.76
bp deduped: 0 ref>1: 0 deduplication: 1.00
SPA allocated: 3376803840 used: 2.64%
Dittoed blocks on same vdev: 50961
내가 도대체 뭘 잘못하고있는 겁니까 ?
답변1
어떤 이유로든 FreeNAS/TrueNAS Core에서는 캐시 경로가 다릅니다. 그들은 기본적으로 어디를 볼지 알기 위해 zdb를 패치하지 않았습니다.
-U /data/zfs/zpool.cache <POOLNAME>
작동하도록 하려면 zdb의 모든 용도에 추가하세요 .
예를 들어 명령은 다음과 같습니다.zdb -U /data/zfs/zpool.cache -b data
답변2
OmniOS에서 zdb
내 rpool
. 문제는 zfs 메타데이터와 내 디스크의 실제 GUID의 GUID 불일치로 인해 발생했습니다. 고장난 하드웨어를 교체하고 zpool 간에 디스크를 섞은 결과인 것 같습니다...
해결책은 zfs detach
미러 장치 하나와 zfs attach
그 장치를 다시 연결하는 것이었습니다.