ilya8878
@ilya8878
Работаю в авиации

Проблемы с загрузкой файлов через S3 API на Backblaze B2 (Laravel, Timeweb хостинг). Большие файлы прерываются во время загрузки, кто сталкивался?

У меня возникли трудности с загрузкой больших файлов (более 100 МБ) на Backblaze через их S3-совместимый интерфейс. Сайт размещен на Timeweb и использует Laravel, а также скрипт MTDb (Ultimate Movie/TV Database). Я настроил подключение к Backblaze для хранения файлов через S3 API.

Есть два варианта загрузки:

Прямая загрузка через API (без использования сервера): файл не загружается полностью. В хранилище создаётся пустой файл с нулевым размером.
Загрузка через сервер: файл загружается на сервер полностью, но при передаче на Backblaze загрузка прерывается на уровне 200-250 МБ.
Проблем с файлами меньшего размера нет, они загружаются корректно. Подозреваю, что это может быть связано с серверными ограничениями или особенностями работы Backblaze с S3 API.

Ссылка для подробного разбора проблемы

https://trahelovo.sentry.io/share/issue/07885ee8c0...

Прошу помочь в решении данной проблемы.
  • Вопрос задан
  • 66 просмотров
Пригласить эксперта
Ответы на вопрос 1
mayton2019
@mayton2019
Bigdata Engineer
Лет 5 назад использовал.

Не знаю что такое Backblaze B2. Но в Amazon S3 реализации, любая загрузка
длинного файла шла через массив байт который передавался единоразово.
Почему так странно сделано - непонятно. Почему не было streamable-API - ХЗ.

Но если вы допустим захотите загрузить файл в 1Г то сервис у себя должен аллоцировать
буфер такого-же размера. Возможно у сервера просто не хватает памяти для этого буфера.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы