Задать вопрос
@IRT

Надежная передача данных по нестабильному соединению?

Есть Macbook c немного глючным Wi-Fi адаптером, через 5-10 Гбайт переданных данных по Samba или SSHFS соединение отваливается. Если тут же начать передачу заново, все идет нормально.

Вопрос. Как передать много гигабайт быстро через нестабильный и отваливающийся Wi-Fi? Есть rsync, но у него нет GUI и нужно городить скрипты вроде:
#!/bin/bash

while [ 1 ]
do
    rsync -avz --partial source dest
    if [ "$?" = "0" ] ; then
        echo "rsync completed normally"
        exit
    else
        echo "Rsync failure. Backing off and retrying..."
        sleep 180
    fi
done


Через SSHFS и Midnight Commander (запущенный в screen на макбуке) это выглядит так. Начинаем копировать, через некоторое время ошибка, жмем «Продолжить».. Segmentation Fault, mc вылетает.

Как скопировать сотни гигабайт по сети с уверенностью, что все скопировалось бит в бит? Проверять MD5 хеши у каждого скопированного файла не вариант. Мне все это видится в виде некоей надежной сетевой файловой системы. Где данные отсылаются кусками по, скажем, 64 Мбайта, с автоматической проверкой хеша каждого куска после передачи. И около 10 попыток повторно передать это кусок 64 Мбайт, перед тем как окончательно сдаться. Главное, чтобы для Midnight Commander и других программ, пока файловая система пытается выковырять очередной кусок данных, это бы не выглядело ошибкой ввода-вывода и они не падали в Segmentation Fault.

Если что, проблема не в сервере, через кабель все льется стабильно.
  • Вопрос задан
  • 512 просмотров
Подписаться 1 Простой 2 комментария
Пригласить эксперта
Ответы на вопрос 1
Jump
@Jump
Системный администратор со стажем.
Как вариант - программа для синхронизации файлов через протокол битторрент (бывший btsync)
https://www.resilio.com/

Или банальный FTP, SFTP.

SAMBA нормально работает только на стабильных и скоростных каналах.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы