Есть веб-проект, который занимается сбором данных. Планирую его масштабировать на 2-3 сервера.
На каждом сервере есть php-скрипт, который, собственно, собирает некоторые данные, а медиафайлы отправляет в специальную созданную папку на этом сервере.
Насколько безопасно будет хранить эти файлы на текущем сервере? Насколько выгодно и оптимизированно?
Возможно, стоит посмотреть в сторону уже готовых решений (типа NextCloud). Насколько знаю, ещё есть хранилища от Goolge, Microsoft, AWS, IBM.
Как правильнее поступить в этой ситуации? Возможно, стоит сохранять файлы не просто в одну папку images, а делить на подпапки типа images/00/00/01/image.jpg или вообще использовать формат BLOB в базе данных) у кого-то уже есть опыт, спасибо!)
В огороде бузина, а в Киеве дядька.
сбор данных это один вопрос.
масштабирование - второй
нафига тут нужно масштабирование - третий
хранение файлов - четвёртый
надо определиться сначала, про что спрашиваем.
потому что судя по поднятым темам, пока что ни проекта, ни рнр-скрипта, ни данных, ни медиафайлов нет, а только неясные фантазии
Про масштабирование, сбор данных, и "нафига мне нужно масштабирование?" я не спрашиваю. Хотелось бы получить ответ конкретно по хранению файлов с обеспечением безопасности
прежде чем задавать вопрос - как хранить данные, ответь - как ты этими данными будешь пользоваться!
- будешь ли работать с ними во время сбора?
- будут ли данные меняться или это write once read many?
- будут ли с данными работать сразу много процессов (хотя на этот вопрос наверное уже пофиг)?
- нужен ли поиск, нужны ли индексы или это временные ряды и нужен только запрос на временной интервал или точную дату?
- как много данных поступает? могут ли читающие данные получать устаревающие данные? на сколько долго?
- как собираешься бакапить? восстанавливать? допускаются ли потери и дыры? подойдет?
Что бы дать ответ нужно знать подробности ситуации! А то зададут вопрос который непонятно о чем вообще.. и догадывайся
никто тут вашу идею не украдет если напишите конкретно на примере