@WebforSelf

Как бекапить большой сайт?

Исходные данные, есть сайт который весит 500 гигов.
Есть домашний ПК на линуксе (Ubuntu)
Нужно забекапить этот огромный сайт на локальную машину.
Проблема в том что файлов на нем очень много к примеру качать по фтп совсем отпадает.
Был вариант сделать архив на том же диске, сделал tar.gz и качает тоже 100 лет.

Также вариант был подключиться через терминал и через rsync скачать сайт не архивируя.
Тоже потерпел фиаско, почему то не все файлы скачались и в процессе rsync сильно ругался.

Далее была попытка чтоб архив который сделали из 500 гб, перекинуло на Яндекс.Диск.
Приложение поставлено на сервер, но при попытке синхронизироваться Яндекс говорит, что не может архив 500 гб синхронизировать. Как вообще в таких ситуациях стабильно делать бекапы? Разбивать на куски?
  • Вопрос задан
  • 177 просмотров
Решения вопроса 1
Попробуй ZBackup (дедупликация + сжатие LZMA) на сервере. а затем rsync к себе на машину.
При создании архива получается на выходе множество BLOB файлов размером 2 МБ и они скачиваются без проблем. Сам использую ZBackup уже продолжительное время.
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
@rPman
разбивать на куски и бакапить не на свою машину с полудохлым интернетом а на сервер в датацентре или как ты уже пробовал - яндекс диск, который будет доступен и позже
Ответ написан
@Drno
Попробуй вместо rsync - rclone
Настрой там откуда и куда - он всё забэкапит
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы