Добрый день.
В наличии имеется hetzner, debian, 2 диска по 3ТБ каждый (sda, sdb).
Sda1 и sdb1 связаны в raid1 /dev/md0, sda2+sdb2 связаны в raid1 /dev/md1 (mdadm)
sda диск отказал, решено было его заменить.
перед заменой md0 раздел выглядел вот так ( Array Size : 524276):
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 3 18:18:43 2013
Raid Level : raid1
Array Size : 524276 (512.07 MiB 53686 MB)
Used Dev Size : 524276 (512.07 MiB 536.86 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Sun May 4 12:54:22 2014
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:0
UUID : 9d2c2f1e:8e784305:b40630ca:df86cbd6
Events : 83
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 1 1 active sync /dev/sda1
После добавление нового диска штатно ОС не запустилась, в rescue-шеле md0 и md1 в пропали из системы (не собрались?).
После добавления sda и sdb в raid при помощи команд вида
mdadm --create --verbose --assume-clean /dev/md0 --level=1 --raid-devices=2 missing /dev/sdb1
получилось, что Array Size : 523968 уменьшился
/dev/md0:
Version : 1.2
Creation Time : Mon May 5 04:22:30 2014
Raid Level : raid1
Array Size : 523968 (511.77 MiB 536.54 MB)
Used Dev Size : 523968 (511.77 MiB 536.54 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Mon May 5 04:22:30 2014
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : rescue:0 (local to host rescue)
UUID : 56d53f14:f12e534b:0543932d:839f2d29
Events : 0
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 17 1 active sync /dev/sdb1
Почему? Есть ли решение?
Из-за этого (наверное), не монтируются разделы lvm, которые находятся на md1.
Таблица разделов выглядит так, что она есть, но смещена на 4096кб.
Как можно разрешить ситуацию с восстановлением зеркала?
Спасибо.
Они и были идентичными. Насколько я понял, различаются firmware. Может в этом и дело, хотя я сомневаюсь, так как raid1 собирал из одного целого диска, второй был просто "missing". Ситуация так и осталась загадкой для меня, но в итоге все разрешилось положительно. Raid-раздел "разобрали" в обычный блочный sdb с помощью testdisk, а там lvm-разделы запустились штатными средствами.