Задать вопрос

Какие программы подойдут для резервного копирования клиентских ПК с медленной сетью и большим объемом данных?

Здравствуйте!
Много лет использую систему UrBackup, но в последние годы ее качество стало досаждать своими ошибками. Подумываю над переходом на другую систему, проблема только в том, что не нашел ничего подобного. Если кто сталкивался, что можете подсказать для таких требований:

1) сеть медленная, около 20 Мбит/с, т.к. сервер резервного копирования в одном городе, а офисы в других.
2) в среднем на одном ПК около 50 ГБ инфы под резервное копирование. В сочетании с п.1 вещи вроде Veeam Agent for Windows, Acronis и т.д. с их стандартной методикой с чередованием полных и инкрементных копий сразу мимо (по 50 ГБ копировать с двух десятков ПК даже на гигабите выходит по времени более 2 часов на полную копию, сеть в этот момент "лежит").
3) нужно централизованное управление, с командным центром, как в UrBackup. Чтобы можно было видеть актуальность бэкапов каждого ПК в виде таблицы, настраивать из одного места расписание, пути бэкапа и т.п. Cobian Backup и подобное сразу мимо получается.
4) Желательно, чтобы было как в UrBackup - идентичные копии файла хранятся лишь в одном экземпляре в разрезе всей системы. Это, не побоюсь этого слова, колоссально экономит место при достаточной надежности (у меня RAID1 под каталог резервных копий).
5) Сервер на Linux.

На данный момент только UrBackup полностью покрывает все пункты. Я в нем отключил полные копии, и система делает все время только инкрементные. Объем передаваемых данных настолько мал, что все дневное копирование занимает менее получаса для 20 ПК. При этом его инкрементные копии не отличаются от полных, так как используются жесткие ссылки на неизмененные файлы предыдущих копий.

Сейчас у меня в голове крутится мысль настроить со всех ПК синхронизацию (она в последствии только дописывает измененные файлы и удаляет более несуществующие) в каталог SMB каждый в свою папку, а после весь каталог средствами сервера уже бэкапить с версионированием тем же Acronis, Veeam или же взять существенно более экономные в плане места Restic, Borg-backup. В итоге получится, что у меня будет в одном каталоге полная копия-зеркало всех ПК, которую потом для версионности сам сервер бэкапит еще раз классическими средствами. А в случае Windows Server, можно было бы вообще задействовать теневое копирование. Но у такого подхода жирный минус - нет централизованности, на каждом ПК допустим тот же FreeFileSync настраивать нужно "на месте", отвлекать сотрудника. Еще минус, что если папок для бэкапа больше одной, то нужно настраивать синхронизацию для каждой, делать подкаталоги и т.п. - муторно это, когда в том же UrBackup я просто указываю список и он делает все сам. Ну и вишенкой на тортике будут шифровальщики, которые заразив клиентский ПК могут воспользоваться его доступом к его личной папке с зеркальной копией на сервере рез.копир. и потереть его данные там тоже. Да, на сервере будет еще одна копия, но ее актуальность на день-два-три будет ниже.

Еще вариант вместо программы для синхронизации использовать частное облако с клиентом для Windows (Nextcloud например) в качестве средства "доставки данных на сервер". После бэкапить на самом сервере весь каталог облака. Минус - можно указать лишь одну папку для синхронизации. Так совсем не годится.

Впрочем, для обхода ситуаций с "много папок на клиенте в разных местах" можно делать символические ссылки на них в одну папку, и ее уже зеркалить. FreeFileSync умеет разрешать ссылки (follow symlinks) например. Наверно сгодится и для Nextcloud, думаю.

PS: заранее извините за "много текста".
  • Вопрос задан
  • 1212 просмотров
Подписаться 10 Средний 7 комментариев
Решения вопроса 1
sergey-kuznetsov
@sergey-kuznetsov
Автоматизатор
Veeam Backup полностью удовлетворяет вашим условиям.
1) 2) Копируются только изменения. Первый полный бэкап можно и потерпеть (либо использовать переносной диск), дальше создаются синтетические полные копии быстро если надо.
3) Управление всеми копиями из единой админки
4) Поддерживаются репозитории на ReFS под Windows и XFS на Linux. Оба варианта поддерживают быстрое виртуальное клонирование секторов. У меня на одном архивном томе в 5ТБ помещается 18ТБ бэкапов. Каждый день инкрементный снапшот, один комп вообще каждые два часа сохраняю. Раз в неделю создаются полные копии на основе предыдущих инкрементов.
5) Сервер управления там только под Windows, но на Linux можно хранить репозиторий в XFS, что даёт так же дополнительную фичу неизменяемых бэкапов. Чтобы даже в случае компрометации сервера, вирус не смог бы удалить бэкапы.
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
@rPman
Я помню для машин на windows7 использовал bat-скрипт (он уже не подойдет для win10) который делал примерно то же самое, создавал теневую копию копируемого диска, запускал rsync, который для дубликатов на основе предыдущего копирования создавал символические ссылки.
rsync -avh --link-dest=previous_backup/ source_directory/ new_backup_directory/

source_directory/ - это каталог, который нужно скопировать.
new_backup_directory/ - это каталог, в который будет создана новая резервная копия.
previous_backup - это предыдущий каталог резервного копирования. rsync будет создавать символические ссылки на файлы в этом каталоге, если они не изменились.

rsync можно брать как нативный виндовый так и использьзовать linux через wsl, рекомендую нативный (который на основе mingw)

По поводу работы с этим по сети, лично я делал не стандартно, диск, на который происходило копирование подключался по сети как блочное устройство (.vhd/.vhdx), сам же файл по сети раздавался сервером.

Делал я это потому что в моей задаче не сервер инициировал копирование, а клиент. Так же полное сканирование диска локально проводится на порядок быстрее, чем по сети. Так же работа с .vhdx благодаря монопольному доступу и штатному кешированию записи на порядок быстрее именно по сети.

Копируя файлы с нескольких машины по очереди на один и тот же диск у меня появлялась возможность отдельным приложением сканировать диск на одинаковые файлы и делать их так же символическими ссылками (т.е. в пределах резервных копий с одной машины ссылки создавались с помощью rsync, но между машинами нет).

Недостаток такого копирования, через год на диске, куда складываются копии, накапливаются миллионы файлов (сотни символических ссылок), если старые копии не удалять то проверка на ошибки затягивалась на часы... я помню скриптом держал десяток последних копий, еще десять ежедневных а промежуточные и старые удалял.

p.s. что значит интерфейс управления резервным копированием?
Ответ написан
RMtechtrend
@RMtechtrend
Магистр инженерии-Средства связи, Телекоммуникации
FreeFileSync
https://freefilesync.org/

Бэкапит не всё, а только изменения с последней синхронизации, есть множество вариантов направлений и методов, и прочие фишки.
Насчёт авоматизации и центрального управления не пробовал, не знаю, но если задонатить эту бесплатную программу, то открываются дополнительные возможности, ну и суппорт вроде адекватен, ....
Возможно вам сгодиться.
Удачи!
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы