Как надёжно загружать/принимать крупные файлы из браузера клиента?

Стоит задача принимать от клиентов крупные файлы на Amazon S3 – загружают архивы по 1–2Gb и больше.

Пробовали из браузера, с помощью Evaporate JS грузить напрямую на Amazon S3 – случайно происходят сбои: например, ставят загрузку на ночь, и к утру обнаруживают, что она зависла на 91%. Хотя evaporate загружает по частям и пытается N раз переслать куски, которые не прошли. Виснет сторона Амазон, причём проблема специфична для некоторых IP адресов, вроде бы.

Как временный костыль думаем принимать файлы на наш сервер, и уже с него слать на S3.

Есть вариант задействовать nginx и его upload module, но это не снимает проблему оборванной связи и попыток перезагрузить лишь части файла, а не весь файл целиком.

Подскажите проверенные надёжные решения с докачкой по частям из браузера?
  • Вопрос задан
  • 241 просмотр
Пригласить эксперта
Ответы на вопрос 1
@inkvizitor68sl
Linux-сисадмин с 8 летним стажем.
Никак.
2 гб по http надежно затолкать не получится.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
CTRL+ Москва
от 250 000 до 320 000 ₽
CTRL+ Москва
от 200 000 до 300 000 ₽
CTRL+ Белград
от 250 000 до 320 000 ₽
22 нояб. 2024, в 00:55
500 руб./за проект
21 нояб. 2024, в 23:30
300000 руб./за проект
21 нояб. 2024, в 22:21
3000 руб./в час