
Ich versuche, mit Lubuntu so viele Daten wie möglich von einer defekten 4-TB-Festplatte wiederherzustellen.
Laut GParted enthält die in Ext4 formatierte Hauptpartition nur 553 GB an Daten. Ich habe versucht, einen vollständigen Klon zu erstellen mitHDDSuperClone, eine GUI-Software für Linux, die in Zweck und Funktionalität dem Befehlszeilentool ähnelt ddrescue
. Anfangs funktionierte es gut, mit wenigen Fehlern/übersprungenen Sektoren und einer guten durchschnittlichen Kopierrate (~60 MB/s). Aber etwa in der Mitte begannen schwerwiegendere Probleme aufzutreten, wobei einige Bereiche überhaupt nicht gelesen wurden und ein Muster aus abwechselnden Streifen mit guten und schlechten Lesevorgängen entstand, was normalerweise darauf hinweist, dass ein Kopf defekt ist. An diesem Punkt brach ich die Wiederherstellung ab.
Ich hatte etwa 1,7 TB wiederhergestellt, und es wurden eine ganze Weile lang nur 00er kopiert, daher dachte ich, dass alle relevanten Daten bereits auf dem Wiederherstellungslaufwerk gesichert wären. Aber es stellte sich heraus, dass die Hauptpartition nicht gemountet werden kann (während sie auf dem Quelllaufwerk noch gemountet werden kann, wenn auch mit Schwierigkeiten) und renommierte Datenwiederherstellungssoftware (R-Studio, DMDE) kann weder die ursprüngliche Verzeichnisstruktur rekonstruieren noch die ursprünglichen Dateinamen abrufen. Und wenn ich das Wiederherstellungslaufwerk in WinHex öffne, kann ich sehen, dass es jenseits von 438 GB vollkommen leer ist, was bedeuten würde, dass etwa 115 GB fehlen – obwohl ich nicht verstehe, wie das möglich sein soll, da Dateisysteme Daten in die äußersten verfügbaren Bereiche schreiben sollen, wo die Lese-/Schreibgeschwindigkeit besser ist, um die Leistung von Festplatten zu optimieren.
Um nun das Beste aus dem Rest herauszuholen, da sich der Zustand des Laufwerks beim nächsten ernsthaften Wiederherstellungsversuch schnell verschlechtern könnte, suche ich nach einer Methode, die die Metadatenstrukturen analysieren und den zugewiesenen/nicht zugewiesenen Speicherplatz melden kann, damit ich die Wiederherstellung auf diese relevanten Bereiche ausrichten kann, anstatt wertvolle Zeit mit dem Lesen von Gigabyte an Nullen zu verschwenden. Ein kleines Befehlszeilenprogramm, das vor einigen Jahren vom Autor von HDDSuperClone ddru_ntfsbitmap
(Teil von ddr_utility
) entwickelt wurde, kann dies automatisch mit NTFS-Partitionen tun: Es analysiert die $Bitmap
Datei und generiert eine „Map-Datei“, ddrescue
die das Kopieren effektiv auf die als zugewiesen markierten Sektoren beschränkt (vorausgesetzt, diese Systemdatei kann vollständig gelesen werden); es kann auch eine „Map-Datei“ generieren, um die $MFT
erste wiederherzustellen, was enorm nützlich ist (die MFT enthält alle Metadaten und Verzeichnisstrukturinformationen der Dateien. Wenn sie beschädigt oder verloren sind, ist nur eine Wiederherstellung vom Typ „Raw File Carving“ möglich). Aber selbst diese hochkompetente Person weiß nicht, wie man dasselbe mit Linux-Partitionen macht, wie er auf antwortetedieser HDDGuru-Thread.
Auch wenn es nicht vollständig automatisiert ist, bräuchte ich ein Verfahren, das eine Ext4-Partition schnell und effizient analysiert, um das Laufwerk dabei nicht noch mehr zu verschleißen, und diese Informationen entweder als Textprotokoll oder als grafische Darstellung meldet. Vielleicht würde ein Defragmentierungsprogramm den Trick machen?
Und ganz allgemein: Wo befinden sich die wichtigen Metadatenstrukturen („Inodes“, wenn ich mich nicht irre) auf einer Linux-Partition? Gibt es eine einzelne Datei, die NTFS entspricht $Bitmap
, oder werden die Informationen zur Datei-/Sektorzuordnung durch eine komplexere Analyse ermittelt? (Falls das relevant ist: Das Laufwerk befand sich in einem WDMyCloud-Netzwerkgehäuse, war werkseitig konfiguriert und lief mit einem Linux-Betriebssystem.)