Можно ли организовать бэкап файлов на удаленный сервер, не архивируя их на рабочем сервере?
Привет.
До недавнего времени для резервного копирования использовалась следующая схема:
1) На основном сервере делался бэкап файлов и БД.
2) Бэкап копировался на удаленный ftp-сервер
3) На основном сервере бэкап удалялся.
На основном сервере существует ограничение в 50Гб (можно докупать ресурсы, но рано или поздно я упрусь в потолок).
Когда размер файлов на сервере превысил 25Гб, логично, что резервная копия не могла сделаться, т.к. не хватало свободного места на диске.
Вопрос: можно ли как-то организовать бэкап так, чтобы архив создавался сразу на ftp-сервере, не используя место на основном? Либо чтобы бэкап создавался частями: заархивировали, например, 1Гб - скинули на ftp, удалили на основном, сделали следующий том архива и т.д.
Т.к. сайт на Битриксе, то его встроенными средствами. А затем запускается bash-скрипт, который копирует файлы архива на FTP.
Так что, наверное, можно сказать, что ничем не пользуюсь)
Почему стал пользоваться средствами Битрикса? Дело в том, что на хостинге PLESK-панель, и чтобы ее средствами делать бэкап, свободного места надо было в 2 раза больше, чем размер архивируемых файлов ("особенность plesk-панели" - сказали в техподдержке").
если так, я бы предпочел перенастроить бэкап на локальный диск,
архивировать его локально.
затем уже заливать по FTP
тогда он и по сети будет быстрее передаваться.
информации недостаточно ты предоставил.
например, я бы вообще - решил бы вашу проблему безо всяких настроек,
вполне достаточно включить сжатие средствами файловой системы.
У вас объем больше 20 гиг - и вы все это гоняете на FTP?!
Cron + mysqldump + rsync = у меня постоянно под рукой еженощно обновляемая локальная копия Битрикс-сайта на внутреннем Debian-сервере. Можно с ним баловаться, обкатывая решения, можно из копии баз восстановить основной, если что пойдет не так. На хрена какие-то там "встроенные средства" и прочие костыли?