Мне вообще не повезло с настройкой Raid с помощью MDADM. На данный момент я подозреваю, что это мое оборудование. Вскоре после первоначальной настройки, а также во время и после успешного процесса синхронизации диски будут помечены как неисправные и удаленные из массива. Я пробовал использовать как метод привода RAW, так и метод разделения. Используя метод разделения, я пробовал использовать как полную емкость, так и меньший размер раздела (-100 МБ емкости в начале раздела). Я пришел к выводу из многих сообщений, которые я обнаружил, что добавление разделенных дисков с размером раздела меньше, чем фактическая емкость диска, по необработанному неразмеченному диску, является рекомендуемым способом настройки рейда mdadm. Это упрощает управление, например замену вышедших из строя дисков и т. Д.
Мое оборудование начинается с сервера Dell PowerEdge R410. У меня есть адаптер esata (не высшего класса), подключенный к 5-отсечному Sans Digital TowerRaid TR5M- (B) с 4 дисками WD Red NAS по 4 ТБ. Я хотел, чтобы хранилище данных было отделено от физического сервера. Я еще не пробовал перемещать диски на сервер Dell, так как мне не нужна ОС в массиве рейдов. Я полагаю, что могу попытаться загрузиться с внешнего диска, но это настолько необычно, что я действительно не хочу идти в этом направлении.
Я наткнулся на пару сообщений, в которых говорилось о «временных» проблемах, и мне было интересно, действительно ли это является источником моей проблемы. Но они говорили о «процессе синхронизации» во время сбоя. И в моем случае я видел, как рейд успешно синхронизировался на 100%, прежде чем увидел, что рейд рассыпается. Я могу опубликовать список рассуждений и подробностей mdadm.
Поэтому, прежде чем снова создавать массив для публикации настроек, сведений о статусе и т. Д., Я подумал, что спрошу у сообщества, что вы думаете. Однако вот как это выглядит непосредственно перед тем, как он отказал / удалил все диски.
services-admin@mydomain:(172.20.0.9)~/DockerServices$ sudo mdadm --detail /dev/md0
Version : 1.2
Creation Time : Mon Feb 25 14:42:27 2019
Raid Level : raid6
Array Size : 7813566464 (7451.60 GiB 8001.09 GB)
Used Dev Size : 3906783232 (3725.80 GiB 4000.55 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Feb 25 16:01:57 2019
State : clean, FAILED
Active Devices : 0
Failed Devices : 4
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 0 0 3 removed
0 8 1 - faulty /dev/sda1
1 8 17 - faulty /dev/sdb1
2 8 33 - faulty /dev/sdc1
3 8 49 - faulty /dev/sdd1