Насколько я понимаю, вы создали 3 рейдовых массива, каждый с прикрепленным зеркалом. Вы можете смонтировать каждую «половину» пар как обычные диски, но это не рекомендуется, когда массив работает, и обе «половины» активны, так как это приведет к десинхронизации копий и разбиванию массива. Но в случае сбоя они существуют по отдельности, а также, если вы используете его для каталогов, как /boot
любые процессы, которые изначально не понимают raid, просто увидят их как идентичные копии, я использую небольшой раздел с raid-1 со многими дисками, чтобы убедитесь, что машина остается загрузочной независимо от того, какой диск ОС умирает.
Хотя это, помимо базового аппаратного резервирования, не имеет никакого преимущества и требует дополнительного обслуживания (3 массива для обслуживания), а диски изолированы.
Если вы делаете это по соображениям производительности и хотите получить наибольшее количество операций ввода-вывода в секунду (например, для сервера базы данных), вам лучше использовать raid 1+0
. Это будет в основном полоса из 3 дисков (примерно в 3 раза больше скорости чтения / записи одного диска) и зеркало этого массива с другими 3 дисками. Текущие MD
драйверы поддерживают это изначально, и вам не нужно отдельно управлять массивами raid-1 и raid-0, а создавать одно устройство raid:
mdadm --create /dev/md0 -v --raid-devices=6 --level=raid10 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
Это означает, что вы получите общий размер массива в сумме 3 дисков. Проблема с этой настройкой заключается в том, что выход из строя 2 дисков может уничтожить все ваши данные, если это же зеркало диска «наполовину» в 2 копиях. Диски, вероятно, одного возраста, что означает, что они начинают выходить из строя примерно в одно и то же время. А стресс перестройки на другой «половине» значительно увеличивает вероятность провала:
С вашей настройкой вероятность выживания потери данных выглядит следующим образом с raid-1 + 0:
1 drive fail = 100%
2 drives fail = 80%
3 drives fail = 40%
4 drives fail = 0%
Если у вас все в порядке со сбалансированными IOPS / скоростями и емкостью хранения с 6 дисками, вы получите гораздо лучшую устойчивость, если создадите raid-6 для всех устройств:
Probability of data loss in a 3 year span:
RAID5 - 0.0125 % (1 in 80)
RAID6 - 0.0005 % (1 in 1982)
Но так как вам нужен загрузочный раздел (загрузчик не может быть разнесен по дискам), вам нужно 2 массива, один маленький, скажем, 256Mb, а остальные вместе, вы должны создать эту схему с помощью fdisk или cfdisk и убедиться, что bootable
флаги установить для небольшого массива. Вы можете скопировать таблицу разделов с одного диска на другой с помощью sfdisk, если диски одинакового размера:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Затем создайте 2 массива:
mdadm --create /dev/md0 -v --raid-devices=6 --level=mirror /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
mdadm --create /dev/md1 -v --raid-devices=6 --level=raid6 /dev/sda2 /dev/sdb2 /dev/sdc3 /dev/sdd4 /dev/sde5 /dev/sdf6
Инсталляторы ОС могут позаботиться об этом за вас, хотя просто отметьте первый массив, который будет использоваться для /boot
Благодаря этому вы получаете 1 накопитель (общая емкость = емкость накопителя * 4). Массив может пережить сбой двух накопителей, и если их нет одновременно, у вас более чем достаточно времени и математического шанса восстановить этот массив.
Следует помнить о текущем качестве потребителя (частота ошибок чтения ~ 10 ^ 14 / ошибка) и размерах дисков (> = 2 ТБ), которые никогда не следует использовать raid-5
для критически важных данных, поскольку существует вероятность восстановления этого массива в случае сбой составляет менее 50%.