
今日、Linkstation の SMB 共有にアクセスする際に問題が発生しました。私の NAS には 2 つのハード ドライブ ディスクがあり、raid0 として構成されています。この raid は、/mnt/array1/intern にマウントされていましたが、このフォルダーが見つかりません。
最初の問題は、エラー報告をどこで探せばいいのか全く分からないことです。
/var/log/messages から始めましょう。そこには次のように書かれています:
/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.
わかりました。このメッセージを Google で検索し、次のことを試しました。
cat /proc/mdstat
md2 : inactive sda6[1](S)
1938311476 blocks super 1.2
md1 : active raid1 sda2[1]
4999156 blocks super 1.2 [2/1] [_U]
md10 : active raid1 sda5[1]
1000436 blocks super 1.2 [2/1] [_U]
md0 : active raid1 sda1[1]
1000384 blocks [2/1] [_U]
unused devices: <none>
OK... df -hi から、md0 がブート パーティションで、md1 がルート パーティションであることがわかります。md2 は失われた RAID だと思いますが、raid10 は何のためにあるのでしょうか? ただし、mdadm の構成を更新し、次の操作で RAID を再構築しようとしました:
mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v
これにより、次のようないくつかのエラー メッセージが表示されます。
cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0
sda、sda1、sda2、md/1、md/2 など。約 50 行あるので、すべてを投稿したくありません。理解できないのは、「間違った UUID」です。最近、現在の UUID を mdadm.conf に追加したのではないですか?
/var/log/messages に戻ると、スクリプトが見つかりました。エラー メッセージがさらに表示されることを期待して、手動でスクリプトを起動してみました。
/etc/init.d/start_data_array.sh
たくさんのメッセージが送られてきますが、最も重要なのは - 私見ですが:
mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument
つまり、私が抱えている問題は、私が知る限り、md2 という名前の raid0 アレイに何か問題があるということです。
主な質問は、何が問題なのか、/dev/md2 をアクティブにするにはどうしたらよいか、ということです (mdadm --detail /dev/md2 を実行すると「デバイスがアクティブではありません」と表示されます)。アレイを手動で再作成する必要がありますか? データは失われますか?
このデバイスがアクティブではないというエラーは、私にとっては一般的なもののように思えます。調べてみると、私の問題にはあまり関係のない投稿やアドバイスがたくさん見つかります。
どのような助けでも大歓迎です、どうもありがとうございます!
// アップデート
私にとっては奇妙になってきています。fdisk -l が /sda と /sda6 に対して言っていることは次の通りです:
root@OoompaLoompa:~# fdisk -l /dev/sda
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 243202 1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sda6 doesn't contain a valid partition table
/sda6 にはパーティション テーブルがありません。これは私のアレイの一部だからだと思います。/sda にはパーティション テーブルがありますが、スーパーブロックはありません。
mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda
しかし、それは 2 GB HDD の 1 つです。本当に困惑しています。これら両方のデバイスに対する --examine の出力は次のとおりです。
/dev/sda1:
mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
Name : UNINSPECT-EMC36:2
Creation Time : Thu Oct 18 01:43:39 2012
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c
Update Time : Thu Oct 18 01:43:39 2012
Checksum : 5d34dcac - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing)
まだちょっと混乱しています。/sda をブート パーティションにすべきでしょうか? 解決策としては、何らかの方法でスーパーブロックを再作成し、/md2 を再構築することだと思います。
それでも、どんな助けでも大歓迎です :)
答え1
2 つのドライブが RAID0 ストライプに結合しています。1 つのドライブ /dev/sda と RAID パーティション /dev/sda6 は正常に見えます。2 番目のドライブはどうなったのでしょうか? 2 番目のドライブが破損していると思われます。fdisk -l を実行すると表示されますか?