
Auf meinem FreeNAS-Server zpool status
wird mir angezeigt, dass ich 2 ZFS-Pools habe: data
& freenas-boot
:
% zpool status
pool: data
state: ONLINE
scan: scrub repaired 0 in 0 days 04:16:16 with 0 errors on Mon Nov 20 00:59:24 2017
config:
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
gptid/3e08fdba-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3eba62c2-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3f704246-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/40249d11-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
errors: No known data errors
pool: freenas-boot
state: ONLINE
scan: scrub repaired 0 in 0 days 00:00:13 with 0 errors on Sun Mar 4 03:45:14 2018
config:
NAME STATE READ WRITE CKSUM
freenas-boot ONLINE 0 0 0
ada0p2 ONLINE 0 0 0
errors: No known data errors
Ich möchte Statistiken zu meinem data
Zpool erhalten zdb
, erhalte jedoch eine Fehlermeldung:
% sudo zdb -b data
zdb: can't open 'data': No such file or directory
Aber es funktioniert am freenas-boot
Pool:
% sudo zdb -b freenas-boot
Traversing all blocks to verify nothing leaked ...
loading space map for vdev 0 of 1, metaslab 55 of 119 ...
2.56G completed ( 881MB/s) estimated time remaining: 0hr 00min 00sec
No leaks (block sum matches space maps exactly)
bp count: 281124
ganged count: 0
bp logical: 5928553472 avg: 21088
bp physical: 2636954624 avg: 9380 compression: 2.25
bp allocated: 3376803840 avg: 12011 compression: 1.76
bp deduped: 0 ref>1: 0 deduplication: 1.00
SPA allocated: 3376803840 used: 2.64%
Dittoed blocks on same vdev: 50961
Was mache ich falsch ?
Antwort1
Aus irgendeinem Grund ist der Cache-Pfad bei FreeNAS/TrueNAS Core anders. Sie haben zdb nicht gepatcht, um standardmäßig zu wissen, wo gesucht werden muss.
Fügen Sie -U /data/zfs/zpool.cache <POOLNAME>
es allen Verwendungen von zdb hinzu, damit es funktioniert.
Für Ihr Beispiel würde der Befehl lauten:zdb -U /data/zfs/zpool.cache -b data
Antwort2
Ich hatte dieses Problem unter OmniOS, wo zdb
ich meine nicht öffnen konnte rpool
. Das Problem wurde durch eine GUID-Nichtübereinstimmung in den ZFS-Metadaten mit den tatsächlichen GUIDs meiner Festplatten verursacht. Ich vermute, dies ist eine Folge des Austauschs defekter Hardware und des Verschiebens von Festplatten zwischen Zpools ...
Die Lösung bestand darin, zfs detach
ein Gerät an den Spiegel anzuschließen und zfs attach
es wieder anzubringen.