Как надёжно загружать/принимать крупные файлы из браузера клиента?

Стоит задача принимать от клиентов крупные файлы на Amazon S3 – загружают архивы по 1–2Gb и больше.

Пробовали из браузера, с помощью Evaporate JS грузить напрямую на Amazon S3 – случайно происходят сбои: например, ставят загрузку на ночь, и к утру обнаруживают, что она зависла на 91%. Хотя evaporate загружает по частям и пытается N раз переслать куски, которые не прошли. Виснет сторона Амазон, причём проблема специфична для некоторых IP адресов, вроде бы.

Как временный костыль думаем принимать файлы на наш сервер, и уже с него слать на S3.

Есть вариант задействовать nginx и его upload module, но это не снимает проблему оборванной связи и попыток перезагрузить лишь части файла, а не весь файл целиком.

Подскажите проверенные надёжные решения с докачкой по частям из браузера?
  • Вопрос задан
  • 240 просмотров
Пригласить эксперта
Ответы на вопрос 1
@inkvizitor68sl
Linux-сисадмин с 8 летним стажем.
Никак.
2 гб по http надежно затолкать не получится.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы