Всем здравствуйте!
Про то, как защитить сайт я уже понял, теперь вопрос про бекапы.
Есть сайт, на который люди загружают фото, видео, аудио материалы. Сейчас на нем порядка 1Тб данных, каждый день их становится все больше и я просто не представляю как это дело бекапить.
В качестве ОС используется Ubuntu 14.04 Server. Диски объемом 2 Тб. Есть дома жесткий диск на 4 Тб, на котором установлена Ubuntu, есть ли какой-либо способ автоматического бекапа на этот жесткий диск? Чтобы не бекапить целиком весь сайт, а лишь только те файлы, который на диске нет.
Спасибо за ответ!
Человеку, который никогда не пользовался подобным софтом тяжело выбрать что-то "удобное". Я обычно хочу получить совет от профессионалов, чем они пользуются.
fman2: если что то серьезное и надежное бакула
если несильно серьезно но надежно тот же рсинк в дженкинсе
можно рснапшот но с его надежностью не все очевидно
если просто файлики несильно важные можно и просто рсинком
Пума Тайланд:
> можно рснапшот но с его надежностью не все очевидно
Его надёжность = надёжности rsync. Это всего-лишь враппер с доп. командами.
Прервался один сервер из списка - он будет пропущен, пойдёт по следующим. Всё зафейленное пишет в ошибки crontab письмами.
Можно пути файлов именовать в виде год/месяц/день/файл. Тогда можно бакапить только за нужный период. Используйте rsync как сказали выше. Однако если у вас уже 1 ТБ и данные быстро растут возможно стоит подумать о переезде в какое-нибудь облачное хранилище наподобие S3.
для этого есть множество решений, от кластеризации до банального rsync, можно даже на zip tar сделать инкремент, можно извратитья csync2, вариантов милион. Как миниму отключити компрессию при архивации.
И контроль целостности.
Могу порекомендовать в купе к этому
find /путь до сайта/-type f -regex ".*\(jpg\|jpeg\)" -exec jpegoptim --max=85 {} \;
сжимает без потери в 3 раза, все полегче станет.
ставится через апт