|
#1
|
|||
|
|||
raid 6 сохранить
Valera Kolesnik написал(а) к All в Dec 17 23:39:24 по местному времени:
Нello everybody. жил-был raid 6. проблем не создавал. отнял один диск и добавил вместо него другой (побольше). процесс перестройки пошёл и дошёл до где-то 7-8%. после чего появились ошибки контроллёра в сислоге и процесс стал. теперь при старте системы массив собирается как mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Raid Level : raid0 Total Devices : 5 Persistence : Superblock is persistent State : inactive Name : vision:0 (local to host vision) UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Events : 189186 Number Major Minor RaidDevice - 8 64 - /dev/sde - 8 32 - /dev/sdc - 8 112 - /dev/sdh - 8 48 - /dev/sdd - 8 96 - /dev/sdg cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md127 : inactive sde[5](S) sdg[4](S) sdh[6](S) sdc[0](S) sdd[7](S) 20511189560 blocks super 1.2 unused devices: <none> --examine же при этом же выдаёт: * /dev/sdc: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Name : vision:0 (local to host vision) Creation Time : Mon Feb 1 10:20:56 2016 Raid Level : raid6 Raid Devices : 5 Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB) Array Size : 8790405120 (8383.18 GiB 9001.37 GB) Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=944 sectors State : clean Device UUID : 41ce7046:7ebdceea:65d19621:f1ca61e4 Internal Bitmap : 8 sectors from superblock Update Time : Sat Dec 2 03:06:16 2017 Bad Block Log : 512 entries available at offset 72 sectors Checksum : 11fe1830 - correct Events : 191432 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : A.... ('A' == active, '.' == missing, 'R' == replacing) * /dev/sdd: Magic : a92b4efc Version : 1.2 Feature Map : 0x9 Array UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Name : vision:0 (local to host vision) Creation Time : Mon Feb 1 10:20:56 2016 Raid Level : raid6 Raid Devices : 5 Avail Dev Size : 9767279024 (4657.40 GiB 5000.85 GB) Array Size : 8790405120 (8383.18 GiB 9001.37 GB) Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=3907008944 sectors State : clean Device UUID : 886a5eec:9e849621:21abfb4e:a369cd89 Internal Bitmap : 8 sectors from superblock Update Time : Sat Dec 2 03:06:16 2017 Bad Block Log : 512 entries available at offset 72 sectors - bad blocks present. Checksum : aa642a14 - correct Events : 191432 Layout : left-symmetric Chunk Size : 512K Device Role : spare Array State : A.... ('A' == active, '.' == missing, 'R' == replacing) * /dev/sde: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Name : vision:0 (local to host vision) Creation Time : Mon Feb 1 10:20:56 2016 Raid Level : raid6 Raid Devices : 5 Avail Dev Size : 9767279024 (4657.40 GiB 5000.85 GB) Array Size : 8790405120 (8383.18 GiB 9001.37 GB) Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=3907008944 sectors State : clean Device UUID : 115d79b4:69962035:97d4e787:9111f3d9 Internal Bitmap : 8 sectors from superblock Update Time : Sat Dec 2 02:53:46 2017 Bad Block Log : 512 entries available at offset 72 sectors Checksum : f1ff417 - correct Events : 189186 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 3 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing) * /dev/sdg: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Name : vision:0 (local to host vision) Creation Time : Mon Feb 1 10:20:56 2016 Raid Level : raid6 Raid Devices : 5 Avail Dev Size : 9767279024 (4657.40 GiB 5000.85 GB) Array Size : 8790405120 (8383.18 GiB 9001.37 GB) Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=3907008944 sectors State : clean Device UUID : 488e865c:38b2a55d:98af3012:b923d816 Internal Bitmap : 8 sectors from superblock Update Time : Sat Dec 2 02:53:46 2017 Bad Block Log : 512 entries available at offset 72 sectors Checksum : a6e02e43 - correct Events : 189186 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing) * /dev/sdh: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : 4eab7c9d:75996247:fc6cdd24:15002f0b Name : vision:0 (local to host vision) Creation Time : Mon Feb 1 10:20:56 2016 Raid Level : raid6 Raid Devices : 5 Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB) Array Size : 8790405120 (8383.18 GiB 9001.37 GB) Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=944 sectors State : clean Device UUID : 9e72158d:5129c8d1:50a2f7a5:0e8b8ed1 Internal Bitmap : 8 sectors from superblock Update Time : Sat Dec 2 02:53:46 2017 Bad Block Log : 512 entries available at offset 72 sectors Checksum : b12eadc2 - correct Events : 189186 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 4 Array State : AAAAA ('A' == active, '.' == missing, 'R' == replacing) вопрос как сохранить информацию? вариант 1 mdadm --assemble --force /dev/md127 /dev/sdc /dev/sdd /dev/sde /dev/sdg /dev/sdh собрать raid со всеми дисками в надежде, что mdadm разберётся, почему у двух дисков Events больше чем у других, один из которых новый неоперённый и с ошибками в логе, и продолжит начатое вариант 2 mdadm --assemble --force /dev/md127 /dev/sdc /dev/sde /dev/sdg /dev/sdh собрать raid без добавленного диска, надеясь что mdadm использует сохранённые проценты на /dev/sdc и достроит недостающие на нём вариант 3 mdadm --assemble --force /dev/md127 /dev/sde /dev/sdg /dev/sdh собрать raid без двух дисков с отличающимися Events. потом либо добавлять эти два либо вытаскивать инфу и продолжать исцеление raid. вроде должно работать, но это ставит raid в очень уязвимую кофигурацию вариант 4 иные способы, более правильные и безопасные. проблем с рейдом до этого происшествия не имел, посему опыт сохраниения отсутствует и не хочется потерять информацию из-за неправильных действий Valera --- GoldED+/W32 1.1.5-040120 |