Резервное копирование сайта

Уважаемые Хабравчане.

Прошу порекомендовать решение такой проблемы. Есть сайт интернет-магазина на Debian/VPS. Настроен ежедневный локальный backup и еженедельный offsite backup на FTP штатными средствами ISP Manager. К сожалению, полное резервное копирование и архивация (даже в ночное время) почти блокируют работу из-за высокой нагрузки.

Рассматриваю вариант инкрементного резервного копирования, желательно на FTP. Или репликации сайта на удаленный FTP.

Что можете порекомендовать в качестве инструментов?

Заранее благодарен за рекомендации.
  • Вопрос задан
  • 6226 просмотров
Решения вопроса 1
@stg34
Была та же проблема. Я на своем дедике сделал очень просто:

1. раз в сутки на сервере создается дамп базы и скалдывается в директорию которая будет забэкаплена на следующем шаге
2. на локальной машине раз в сутки запускается
rsync /usr/bin/rsync -av --delete user@host:/direcroy/to/backup /var/backups/sitename/

3. Чтоб не спрашивали пароль настроена беспраольная аутентификация (как-то так)

Первое выполнение скрипта приведет к полному перетягиванию данных, все последующие — только изменившихся данных. В результате нагрузка достаточно невелика.

Это всё в предположении, что на сервере есть ssh (на VPS-ке должен быть) и есть локальная машина куда забирать данные
Ответ написан
Пригласить эксперта
Ответы на вопрос 6
@sergeyvolobuev
apt-get install duplicity
man duplicity

и еще можно почитать вот тут. Удачи!
Ответ написан
@inkvizitor68sl
Linux-сисадмин с 8 летним стажем.
Бегите вы с такой VPS…
Ответ написан
@neznae4ko
Программирую, разрабатываю, печатаю, паяю и создаю
я бы перенея бы систему на lvm и делал бы снапшоты два раза в сутки (а старые удалял бы по прошествию какого-то времени), я даже видел в сети скрипт для этого
Ответ написан
@Eddy_Em
А если использовать VCS? Например, mercurial вполне прост, а по cron'у делать hg commit && hg push
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы