Задать вопрос

Какие есть нормальные варианты синхронизации больших объемов данных?

На данный момент есть 2 сервера, на одном из них директория с огромной кучей файлов общим объемом 440Гб. Размер файла в среднем 140Кб. При этом в папке постоянно создаются новые файлы.
Копировал через
rsync -aPhW --protocol=28 -e ssh user1@server1:/folder/ /folder/
Сначало процесс достаточно шустро лил данные. За 10 минут скопировал примерно 100Гб (сеть 1Гб). Оставил на ночь - думал с утра будет все закончено. Куда там. Процесс продолжается, при этом average на обоих серверах достаточно ощутимый.

Что я делаю ни так? Может есть что то более шустрое чем rsync?
  • Вопрос задан
  • 3037 просмотров
Подписаться 4 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Учебный центр «Микротест»
    Сетевое администрирование ОС Astra Linux Special Edition 1.8
    2 недели
    Далее
  • Учебный центр «Микротест»
    Linux уровень 4. Диагностика и устранение неполадок в Linux (Линукс)
    1 неделя
    Далее
  • Учебный центр «Микротест»
    Linux уровень 4. Диагностика и устранение неполадок в Linux (Линукс)
    1 день
    Далее
Пригласить эксперта
Ответы на вопрос 2
merryjane
@merryjane
Системный администратор
Можно попробовать лить не через ssh а через протокол rsync. В этом случае не нужно будет шифрование и все заработает быстрее. Правда на сторонее приема нужно будет запустить rsync как демона.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы