Что если резервное копирование заменить синхронизацией с хранением старых версий?
Я за все время перепробовал довольно много программ резервного копирования вроде Cobian Backup, Acronis, UrBackup и пр. У всех один большой минус: полное копирование занимает много времени и места, и хоть есть инкрементальное, но все равно полное раз в месяц, но делать нужно. UrBackup в этом плане несколько лучше, так как есть дедупликация, но все равно не то. А у меня мелкий офис и несколько машин с большими объемами данных (50-100ГБ) на их дисках. И все надо как-то резервировать. И иной раз просят восстановить файлы, удаленные полгода-год назад. Сами представляете, сколько места занимают все эти копии. Вообщем, часто выполнить просьбу невозможно.
А теперь к сути. Нашел интересную программку FreeFileSync. Она умеет "зеркалить" каталог, обнаруживать перемещенные файлы, а удаленные и старые версии архивировать в папки вида ГГГГ-ММ-ДД. Итого у меня всегда есть последняя полная копия и много-много папок с ранее удаленными или просто переписанными файлами. Глубина истории легко достигнет года при минимумах расхода места. Плюс сразу видно какие файлы были затронуты и когда. А главное - резервное копирование и архивация в одном флаконе, и без проприетарных форматов архивов.
А теперь вопрос: А насколько это "профессионально"? Такая практика вообще применяется? С какими "граблями" я могу столкнуться в будущем?
Пока вижу лишь сплошные плюсы, но как говорится, если все выглядит слишком хорошо, то что-то тут не так...
tictac17, ну синхронизация это никак не резервное копирование.
Но все зависит от ситуации - какие данные, какие требования к бэкапу.
и хоть есть инкрементальное, но все равно полное раз в месяц, но делать нужно
Зачем? И почему именно раз в месяц?
Насколько эффективна дедупликация? Чем она не устроила?
Сами представляете, сколько места занимают все эти копии.
Не представляю. В зависимости от того что за данные и как бэкапятся, ежедневный бэкап с десяти машин (50-100Гб) с каждой, за пару лет может весить как 200Гб, так и 200ТБ.
Раз в месяц - баланс между быстрым восстановлением и расходами места лично для меня, ну это примерно все конечно. Впрочем, это до UrBackup'a еще было выбрано. Дедупликация вроде эффективна, но иногда тот же UrBackup почему-то считает два одинаковых файла разными, хардлинк не ставит. Файлы эти в разных полных копиях.
tictac17, бекап типа дед-отец-сын(полный-дифференциальный-инкрементальный) позволяет делать полные копии пореже.
То что вы предлагаете -инкрементальный бекап наоборот. Вы имеете полную копию не в прошлом, а в настоящем, но для восстановления требуются все фрагменты бекапа между сегодня и временем отката. Если Вам потребуется восстановить версию файла, глубиной пол года, и он при этом менялся каждый день, то вряд ли это будет реально возможно, даже если все архивы будут целы.
Учтите еще, что синхронизация, видимо, будет происходить в он-лайн режиме, а значит будет отъедать ресурсы тогда, когда они вам нужны. Это может стать критичным моментом. Бэкаперы, как правило, запускаются по расписанию, когда нет нагрузки - ночью, например.
Вопрос профессионализма, формулируется примерно так "Если работает стабильно, и выполняет необходимые функции - применение целесообразно".
Подобная технология хранения бэкапов описана еще в 2006г. в книге о SRE практиках Google. Это называется "Ленивое удаление".
Фактически это система контроля версий (наподобие GIT), которая удаление файла отрабатывает с задержкой. Т.е. помечает удаленным, а реально удаляет спустя какое-то время.