Добрый день!
Сразу извиняюсь если тег поставил некорректный: бывают с этим проблемы. Прошу и разрешаю скорректировать
Тезисно:
- Есть хранилище тяжёлых файлов (примерно по 1ТБ на каждый)
- Есть набор микросервисов-воркеров, которые по заданию в определённый момент хотят загрузить файл из хранилища и в определённый момент выгрузить его обратно
- Между хранилищем и микросервисами - сесть одна, локальная
- Сами сервисы написаны на Python
- Передача файлов в данный момент организована открытием подпроцессов (стандартной библиотекой
subprocess) с командой
scp /local-file user@host:remote
Считаю текущий вариант не оптимальным и почти неуправляемым. Есть какие-то более лучшие практики организации передачи больших файлов туда-обратно? Желательно, чтобы это хорошо работало в
Docker контейнерах сквозь
docker volumes.
Рассматриваю вариант в сторону чистого
Nginx (обычной отдачей статики) или найденного
minio решения (которое ещё не изучил).