我不知道,/ dev / md2使某些东西变得腐败.现在/ dev / md0是我的同事两年前建立的,大约六个月前我设置了/ dev / md2.始终使用戴尔和惠普服务器内置的硬件控制器完成RAID,这是我第一次不得不处理软件RAID.我按照[url] http://www.gagme.com/greg/linux/raid-lvm.php[/url]上的说明进行了操作,我觉得这是最好的主意,因为LVM会让我有能力在未来扩展RAID阵列(我刚才了解到mdadm可以做同样的事情).直到今天都没有问题.修复/ dev / md0后重启机器后无法挂载/ dev / lmv-raid / lvm0(表示无法找到文件或目录).它几乎看起来逻辑卷已经消失.我不明白会导致什么.第二个阵列中没有驱动器坏,我没有触及第二个阵列.数组没有什么坏的.但看起来有些事情是不对的.
现在/ dev / md2正在运行并处于干净状态,但我无法安装它.我担心数据不见了.真可怕的是,我脑子里没有解释发生了什么.我假设我无法挂载/ dev / md2,因为RAID阵列期望由LVM控制.也许我不太了解系统,但如果我有一个干净的阵列不应该数据仍然在数组?知道如何恢复数据吗?我要做的最后一件事就是回到我的老板那里告诉他,在修复一个阵列的过程中,另一个阵列神奇地破坏了,你的所有数据都消失了.我已经查看了多个站点,但由于我不知道实际上是什么打破了所有我不知道我是否真的丢失了数据或者是否还有其他我缺少的东西.
任何建议都会非常感激,我整个上午一直在努力解决这个问题.
以下是一些更多信息:
[root@viamao ~]# mdadm --detail /dev/md2 /dev/md2: Version : 00.90.01 Creation Time : Tue Jun 9 11:32:06 2009 Raid Level : raid5 Array Size : 4395415488 (4191.79 GiB 4500.91 GB) Device Size : 1465138496 (1397.26 GiB 1500.30 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 2 Persistence : Superblock is persistent Update Time : Tue Jun 9 15:54:39 2009 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State 0 8 128 0 active sync /dev/sdi 1 8 144 1 active sync /dev/sdj 2 8 160 2 active sync /dev/sdk 3 8 176 3 active sync /dev/sdl UUID : 88bbe155:b6d852b1:3ad8a77d:5eba3ee2 Events : 0.36 [root@viamao archive2]# mount -t ext3 /dev/md2 /share/archive2 mount: wrong fs type,bad option,bad superblock on /dev/md2,or too many mounted file systems [root@viamao archive2]# mount /dev/hda3 on / type ext3 (rw) none on /proc type proc (rw) none on /sys type sysfs (rw) none on /dev/pts type devpts (rw,gid=5,mode=620) usbfs on /proc/bus/usb type usbfs (rw) /dev/hda1 on /boot type ext3 (rw) none on /dev/shm type tmpfs (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) /dev/md0 on /share/archive1 type ext3 (rw) [root@viamao share]# cat /proc/mdstat Personalities : [raid5] md2 : active raid5 sdl[3] sdk[2] sdj[1] sdi[0] 4395415488 blocks level 5,64k chunk,algorithm 2 [4/4] [UUUU] md0 : active raid5 sda[0] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] 5128021248 blocks level 5,algorithm 2 [8/8] [UUUUUUUU] unused devices: <none>
还有什么我能告诉你的,可能会有所帮助吗?我有一个无法挂载的活动RAID阵列,认为这与以前在lvm上的事实有关,但现在当我尝试挂载/ dev / lvm-raid / lvm0时它告诉我特殊的设备无法找到. lvdisplay没有给我任何东西pvdisplay只显示我的操作系统所在的驱动器. vgdisplay也没有产生任何结果.
思考?我在这里真的很茫然.
解决方法
>物理设备
> / dev / sdi
> / dev / sdj
> / dev / sdk
> / dev / sdl
>每个驱动器上的特殊md分区类型(使用时)
>这可能存在也可能不存在.虽然建议您只在每个驱动器上创建单个分区,该分区跨越其所在驱动器的整个大小,但可以直接使用设备名称指定整个驱动器.请注意,这可能会导致某些分区工具对它们正在处理的内容感到困惑(因为分区表只是“消失”),所以我不推荐它.
在您的情况下,指定了整个驱动器,因此没有要查看的分区.你不必担心这个.
> md驱动程序(使用时)
> / dev / md2
详细信息和/ proc的输出报告表明阵列已在所有驱动器上运行且没有驱动器处于故障状态.这意味着阵列是健康的!
> LVM(使用时)
pvscan&& vgscan&& lvscan
如果要找到任何卷,它们应该在这里.请注意,卷扫描过程由一个文件控制,该文件可以选择某些设备在执行扫描时忽略.您需要确保明确扫描/ dev / md2.
每个LVM卷都有一个GUID印在其中;如果丢失或损坏,可能会导致您看到的一些问题.这里的目标是让您的LVM卷得到认可.一旦他们健康,你就会状态良好.
>文件系统
我想你知道这里的演习.
从这里你应该能够恢复你的文件系统.