Есть Macbook c немного глючным Wi-Fi адаптером, через 5-10 Гбайт переданных данных по Samba или SSHFS соединение отваливается. Если тут же начать передачу заново, все идет нормально.
Вопрос. Как передать много гигабайт быстро через нестабильный и отваливающийся Wi-Fi? Есть rsync, но у него нет GUI и нужно городить скрипты вроде:
#!/bin/bash
while [ 1 ]
do
rsync -avz --partial source dest
if [ "$?" = "0" ] ; then
echo "rsync completed normally"
exit
else
echo "Rsync failure. Backing off and retrying..."
sleep 180
fi
done
Через SSHFS и Midnight Commander (запущенный в screen на макбуке) это выглядит так. Начинаем копировать, через некоторое время ошибка, жмем «Продолжить».. Segmentation Fault, mc вылетает.
Как скопировать сотни гигабайт по сети с уверенностью, что все скопировалось бит в бит? Проверять MD5 хеши у каждого скопированного файла не вариант. Мне все это видится в виде некоей надежной сетевой файловой системы. Где данные отсылаются кусками по, скажем, 64 Мбайта, с автоматической проверкой хеша каждого куска после передачи. И около 10 попыток повторно передать это кусок 64 Мбайт, перед тем как окончательно сдаться. Главное, чтобы для Midnight Commander и других программ, пока файловая система пытается выковырять очередной кусок данных, это бы не выглядело ошибкой ввода-вывода и они не падали в Segmentation Fault.
Если что, проблема не в сервере, через кабель все льется стабильно.