Здравствуйте. Мне нужно сделать бэкап сайта, скачать файлы себе на компьютер. Сайт весит 54гб. Думал сначала сжать gzip-ом, но на сервере места нет, всего 5гб свободных. Поэтому придется качать напрямую. Обычно для скачивания файлов использую scp, но сможет ли scp скачать такую большую директорию и сколько это займет времени? scp стоит 64 битный
Чем больше знаю, тем лучше понимаю, как мало знаю.
Если на сервера есть доступ по ssh - можно архивировать с сохранением архива уже на удалённый сервер. Получится передавать меньше данных, а значит быстрее.