Исходные данные, есть сайт который весит 500 гигов.
Есть домашний ПК на линуксе (Ubuntu)
Нужно забекапить этот огромный сайт на локальную машину.
Проблема в том что файлов на нем очень много к примеру качать по фтп совсем отпадает.
Был вариант сделать архив на том же диске, сделал tar.gz и качает тоже 100 лет.
Также вариант был подключиться через терминал и через rsync скачать сайт не архивируя.
Тоже потерпел фиаско, почему то не все файлы скачались и в процессе rsync сильно ругался.
Далее была попытка чтоб архив который сделали из 500 гб, перекинуло на Яндекс.Диск.
Приложение поставлено на сервер, но при попытке синхронизироваться Яндекс говорит, что не может архив 500 гб синхронизировать. Как вообще в таких ситуациях стабильно делать бекапы? Разбивать на куски?
Попробуй ZBackup (дедупликация + сжатие LZMA) на сервере. а затем rsync к себе на машину.
При создании архива получается на выходе множество BLOB файлов размером 2 МБ и они скачиваются без проблем. Сам использую ZBackup уже продолжительное время.
разбивать на куски и бакапить не на свою машину с полудохлым интернетом а на сервер в датацентре или как ты уже пробовал - яндекс диск, который будет доступен и позже