Synology имеет настроенную версию наборов драйверов md и mdadm, которая добавляет флаг 'DriveError' в структуру флагов rdev-> в ядре.
Чистый эффект - если вам не повезло получить сбой массива (первый диск) в сочетании с ошибкой на втором диске - массив переходит в состояние, не позволяющее восстанавливать / восстанавливать массив, даже если чтение с диска работает хорошо.
На данный момент, я не очень беспокоюсь об этом вопросе с точки зрения ЭТОГО массива, так как я уже извлек контент и собираюсь его реконструировать, но больше из-за желания иметь путь разрешения для этого в будущем , так как это второй раз, когда меня это укусило, и я знаю, что видел, как другие задают подобные вопросы на форумах.
Поддержка Synology была менее чем полезной (и в основном не отвечающей) и не предоставит никакой информации ВСЕ о работе с наборами raidsets на коробке.
Содержимое / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
Статус из mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
Как видите - / dev / sda5 был повторно добавлен в массив. (Это был диск, который сразу вышел из строя) - но даже если md рассматривает диск как запасной, он не будет восстановлен на нем. В этом случае / dev / sde5 является проблемным диском с состоянием (E) DiskError.
Я попытался остановить устройство md, запустить сборку силы, удаление / чтение sda5 из устройства / и т.д. Никаких изменений в поведении.
Я смог полностью воссоздать массив с помощью следующей команды:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
который вернул массив в это состояние:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
Затем я повторно добавил / dev / sda5:
mdadm --manage /dev/md2 --add /dev/sda5
после чего началось восстановление:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
Обратите внимание на положение «отсутствующего» диска, совпадающее с точным положением отсутствующего слота.
Как только это закончится, я думаю, что я, вероятно, вытащу сомнительный диск и сделаю его заново.
Я ищу любые предложения относительно того, есть ли какой-либо «менее страшный» способ сделать это восстановление - или если кто-то прошел через этот опыт с массивом Synology и знает, как заставить его перестраивать, кроме как перевести устройство md в автономный режим и воссоздать массив с нуля.