Есть FreeNAS на Proxmox VE, на FreeNAS'е есть зашифрованный пул. Перестало хватать места, увеличил диск в гипервизоре, сделал gpart commit da1 (то есть, расширил физический диск пула FreeNAS'а), попытался расширить zpool свойством autoexpand -- не расширился. Попытался расширить раздел, где находился пул, удалось, но сам пул не увеличился. После перезагрузки не расшифровывается ни одним ключом, в текстовую консоль при попытке расшифровать через веб-консоль валит сообщение, что нет такого пула; команда geli attach -k и так далее возвращает cannot read metadata (перепробовал все варианты). Вернул объём как было, бесполезно. zpool import показывает пустой вывод.
Бекапов нет. Ключи шифрования есть основной и резервный, парольная фраза тоже. Можно что-нибудь с этим сделать?
UPD.
Отправили диски в специализированную компанию, ждём результатов диагностики. По идее, сами данные нетронуты, и, учитывая наличие всех ключей и паролей, есть шанс их восстановить.
ZFS лучше всего работает непосредственно с дисками. Такая виртуализация не приводит к хорошему.
Пул расширяется добавлением блочных устройств, а не изменением их размера.
Судя по тому, что вы изменили размер одного диска и все сломалось - у вас Stripe. Значит вам надо попытаться вернуть все обратно вплоть до блока, чтобы ZFS понимало, что диск является частью пула, который можно импортировать.
Так что вам надо не пул расшифровывать, а вернуть все на круги своя. Тут уже специалисты помогут.
По идее у вас проблема типичная при расширении раздела и проблемах с таблицей разметки, когда последний блок оказывается не там где нужно. Это можно и самому сделать, но опыт нужен.
Пул можно расширять, autoexpand для этого и существует, и я это уже делал, просто в этот раз что-то пошло не так. Я понимаю, что при расширении где-то что-то оказалось не там, где нужно. А завиртуализировать машину пришлось из-за ряда причин, тем не менее всё работало нормально до этого случая, получилось как бы простой zpool на зеркальном zpool'е.
Но диски уже отдали специалистам с подробным объяснением ситуации, вам большое спасибо за ответ. По идее, сами данные остались целы, будем надеяться.