
組織の Linux NFS システムにある自分のホーム フォルダー (および他のいくつかのフォルダー) を、アカウントの有効期限がもうすぐ切れる個人用ハード ドライブ (Linux ファイルシステムを使用していない) にバックアップする必要があります。SSH および SFTP を介してアカウントにアクセスします。これらのファイルとディレクトリのすべてのメタデータと、その中のすべてのもの (日付、所有者、グループ、UID/GID 番号、CHMOD 権限など) をバックアップします。これを行うにはどうすればよいですか? 表示する情報に関する特定の設定を使用してディレクトリで LS コマンドを再帰的に実行し、結果をファイルにパイプして、移動先のファイルシステムに関係なく情報がファイルに含まれるようにする必要がありますか? または、TAR/GZ などを使用してすべてのメタデータを保存する方法はありますか? TAR/GZ を使用する場合、アーカイブを移動した他のファイルシステムでこのメタデータを表示するにはどうすればよいでしょうか? また、保存されているユーザー/グループは、抽出されない限りそのまま残りますか?
さらに、SELinux メタデータと AFS (Andrew File System) メタデータに対してもこれを行う方法を知っていますか? (これらは後で別のファイルシステム用になりますが、どちらかの答えがわからない場合でも、上記の質問に答えてください。)
答え1
tar(1)を使用する
はい、tar アーカイブ プログラムは Linux ディレクトリのチェックポイントを作成するのに適した方法です。
この方法の利点の 1 つは、中間ファイルシステムが何であるかは問題にならないことです。たとえば、.tgz ファイルを FAT32 フラッシュ ドライブなどに配置でき、最終的に別の Unix 系システムで抽出が行われる限り、すべてのメタデータが保持されます。
$ tar cvfz /somewhere/else/backup.tgz . # save current directory and everything underneath
...
# later, on a Unix box...
$ mkdir my_old_dir; cd my_old_dir
$ tar xvfz /whatever/backup.tgz