NTFS 하드 드라이브에 Linux 서버 백업

NTFS 하드 드라이브에 Linux 서버 백업

데비안 서버를 백업하는 방법을 찾고 있습니다. 데이터 파티션의 경우 rsync를 사용하는 솔루션이 있으며 백업은 암호화된 ntfs 드라이브로 이동됩니다. Windows 노트북에서 영화 등을 보기 위해 드라이브를 자주 가져가기 때문에 NTFS입니다.

ntfs에서는 권한이 유지되지 않기 때문에 rsync를 사용한 시스템 백업이 작동하지 않습니다. tar아카이브 에 대해 생각하고 있었는데 --update플래그는 새 파일만 추가하고 더 이상 거기에 없는 파일을 삭제하지 않습니다.

rsync 업데이트처럼 업데이트 가능한 권한을 유지하는 멋진 컨테이너 내 백업을 얻을 수 있는 방법이 있나요?

답변1

스토리지 요구 사항을 충족하는 한 가지 방법은루프백 파일 시스템NTFS 파티션 내부에 있지만 문제는 입출력(I/O)이 파일 시스템 내의 파일 시스템에서 발생하기 때문에 이러한 루프 장치의 성능이 더 나빠진다는 것입니다.

루프백 파일 시스템을 설정하는 것은 매우 간단합니다. /demoNTFS 장치를 마운트한 위치가 다음과 같다고 가정합니다 .

빈 비희소 파일 만들기

크기는 당신의 선택입니다. 내 예는 1GiB 크기입니다.

root@node51 [/demo]# dd if=/dev/zero of=loopback.img bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 1.88537 s, 570 MB/s

필요한 모든 권한 기능을 갖춘 파일 시스템을 사용하여 파일 형식을 지정하세요.

이 예에서는 ext4를 사용합니다.

root@node51 [/demo]# mkfs.ext4 loopback.img
mke2fs 1.42.9 (4-Feb-2014)
loopback.img is not a block special device.
Proceed anyway? (y,n) y
Discarding device blocks: done
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
65536 inodes, 262144 blocks
13107 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376

Allocating group tables: done
Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done

방금 파일 내부에 파일 시스템을 만들었습니다.

새 파일 시스템 마운트

root@node51 [/demo]# mount -o loop loopback.img /mnt

새 파일 시스템에 데이터 넣기

root@node51 [/demo]# echo "Data data data" > /mnt/file.txt
root@node51 [/demo]# ll /mnt/
total 28
drwxr-xr-x  3 root root  4096 May 25 09:31 ./
drwxr-xr-x 24 root root  4096 May 25 09:29 ../
-rw-r--r--  1 root root    15 May 25 09:31 file.txt
drwx------  2 root root 16384 May 25 09:30 lost+found/

편리하게도 ext4 파일 시스템의 크기를 매우 유연하게 조정할 수 있습니다.

예시 확대

root@node51 [/demo]# ll -h
total 33M
drwxr-xr-x  2 root root 4.0K May 25 09:30 ./
drwxr-xr-x 24 root root 4.0K May 25 09:29 ../
-rw-r--r--  1 root root 1.0G May 25 09:31 loopback.img

root@node51 [/demo]# umount loopback.img

root@node51 [/demo]# e2fsck -f loopback.img
e2fsck 1.42.9 (4-Feb-2014)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
loopback.img: 12/65536 files (0.0% non-contiguous), 12636/262144 blocks
root@node51 [/demo]# resize2fs loopback.img 4G
resize2fs 1.42.9 (4-Feb-2014)
Resizing the filesystem on loopback.img to 1048576 (4k) blocks.
The filesystem on loopback.img is now 1048576 blocks long.

root@node51 [/demo]# ll -h
total 33M
drwxr-xr-x  2 root root 4.0K May 25 09:30 ./
drwxr-xr-x 24 root root 4.0K May 25 09:29 ../
-rw-r--r--  1 root root 4.0G May 25 09:32 loopback.img

축소 예

root@node51 [/demo]# ll -h
total 33M
drwxr-xr-x  2 root root 4.0K May 25 09:30 ./
drwxr-xr-x 24 root root 4.0K May 25 09:29 ../
-rw-r--r--  1 root root 4.0G May 25 09:32 loopback.img

root@node51 [/demo]# e2fsck -f loopback.img
e2fsck 1.42.9 (4-Feb-2014)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
loopback.img: 12/262144 files (0.0% non-contiguous), 25167/1048576 blocks

root@node51 [/demo]# resize2fs loopback.img 128M
resize2fs 1.42.9 (4-Feb-2014)
Resizing the filesystem on loopback.img to 32768 (4k) blocks.
The filesystem on loopback.img is now 32768 blocks long.

root@node51 [/demo]# ll -h
total 33M
drwxr-xr-x  2 root root 4.0K May 25 09:30 ./
drwxr-xr-x 24 root root 4.0K May 25 09:29 ../
-rw-r--r--  1 root root 128M May 25 09:44 loopback.img

답변2

당신은 시도 할 수 있습니다 다르 (http://dar.linux.free.fr/) 증분 백업 기능이 있기 때문입니다. 재해 복구를 시도하지는 않았지만 일반 백업은 제대로 작동하는 것 같습니다.

관련 정보