Задать вопрос
snaiper04ek
@snaiper04ek
Не стреляйте в эникея, он админит как умеет

На сколько безопасно дедуплицировать бэкапы?

Окей, дедупликация - это создание ссылки на уже имеющиеся куски информации, короче - дюже умное сжатие.
Получается, что при дедупликации, если физическая копия информации, на которую ссылается 10 ссылок инкриментальных/диффиренциальных бэкапов, была повреждена при записи, то все эти 10 бэкапов, использующие ссылку на повреждённый участок, множатся на ноль? Да, я в курсе про 3-2-1, и тем не менее.
А если там три фулл бэкапа, то если был повреждён один это автоматически равно что все три повреждены в одном и том же месте?

Откуда вопрос взялся-то: решил улучшить систему бэкапирования, много читал, и периодически натыкался на "дедупликация помогает здорово экономить место на диске с бэкапами", или предложение использовать zfs как фс для хранения бэкапов.

Вопрос: это люди вообще бесстрашные, или я всё не правильно понимаю?
з.ы. бэкаплю bareOS если это имеет какое-то значение.

з.з.ы:
Всех благодарю за ответы! Очень помогли разобраться и вправить мозги на место)))
  • Вопрос задан
  • 150 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
@aleks-th
На этот вопрос нельзя однозначно ответить.
Да если идёт сбой то бекап накрывается медным тазом.

Но у тебя так же может и диск сдохнуть , и рейд, и файловая система, и ленточки размагнитится и вирус может все бэкапы зашифровать, так же может над серверной котельную прорвать, случится пожар, подача 380 вместо 220, сервер с бекапами могут украсть, владелец здания может ваше оборудование заблокирова, а ещё все это может произойти одновременно...

Вообще для бекапов нужно определится :

1. Что храним, и зачем, какая информация критична а какая не очень?
2. Объем данных?
3. С какой периодичностью делать бекапы?
4. Как проверяем что бэкап нормальный, как будем и за какое время разворачивать в случае чего?
5. Какие риски могут быть и как с ними будем бороться?
5. Сколько и кто за это платит?

А дальше все просто - есть неограниченно денег, покупаем хранилища быстрые и бесконечные, нет совсем денег ниче не делаем молимся чтоб последний хард не сдох.

А вот где-то посередине между крайними случаями, будет схема где самым оптимальным решением будет вот это умное сжатие. Или какое-то другое решение. Впринципе если проблем нет то проблем с этими бэкапами не будет. Особенно если бэкапы после создания будут как-то проверяется на целостность.

Но перед этим все равно нужно рисовать схему и смотреть, что храним, как храним, и сколько готовы платить денег и времени за то что храним.
Ответ написан
Пригласить эксперта
Ответы на вопрос 4
mayton2019
@mayton2019
Bigdata Engineer
Боюсь что процесс дедупликации будет требовать ресурсов гораздо больше чем сам backup.

Попробуй сам подумать какая асимптоматика будет у алгоритма поиска в одном файле фрагментов другого
файла.

Из коробочных инструментов есть fdupes. Я им пользовался когда надо искать в большом архиве pdf
документов такие-же документы дубли или фолдеры-дубли. Но fdupes просто ставит более простую
задачу. Ищет полное совпадение всех файлов со всеми. Вот. А если ты будешь играться с дифференциальными
или прочими бэкапами то сложность твоей задачи еще более вырастает.
Ответ написан
@Drno
Люди бесстрашные. Самый лучший бэкап, который я видел, копирование голых данных, ну и в архив их при желании.
конфиги копировать отдельно.
Если БД - то дамп

Да, это всё жрет кучу места
Ответ написан
pindschik
@pindschik
ФЫВА ОЛДЖ
Вот ситуация из практики - дедупликация средствами Windows Server, экономия дискового пространства порядка 60% (проектные данные, документы, личные файлы пользователей и т.п.), сжатый объем хранения - сейчас около 10 терабайт. За 10 лет ни одного случая косяков, кроме помирания дисков механически.
Естественно, что резервное копирование реализовано несколькими уровнями и на разные носители. Но сам по себе механизм дедупликации работает очень стабильно. По процессорной загрузке - не особо велика. Да и кто запрещает сделать расписание?
Смотря какие данные, сжатие будет разным, но возможно в то же хранилище вы сможете положить уже 2 (независимо друг от друга дедуплицированные) копии, вместо одной. Понятно, что лучше быть богатым и здоровым, чем бедным и больным - но вы видели ценовую разницу между диском на 10 Тб и на 25 Тб?
Ответ написан
CityCat4
@CityCat4
//COPY01 EXEC PGM=IEBGENER
Ну, например у меня дедупликация экономит 90% места :)

Free: 1.90 TB
Used: 11.09 TB (997.2 GB can be reclaimed)
Deduplication: Enabled
Compression: Fast
Encryption: Disabled
Space savings: 94.0% (158.49 TB)
Automatic self-healing: Disabled


Испольузется Nakivo Backup & Replication. Да, его больше не купить и саппорта нет. И если репа сдохнет - то бэкапы накрылись. (Два раза за семь лет - бывало из-за бросков питания). Защита от этого проста - еще одна полка или сервер, куда бэкапы копируются.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы