@crushilov
Аналитик

Как хранить большой объём данных?

ежедневно имеется достаточно большой объём данных, содержащий в себе, пользователей и некоторые их характеристики (числовые, текстовые и пр.). Характеристики ежедневно меняются, сами пользователи также имею свойство смены имени или фамилии. Суть задачи в том, чтобы проанализировать все изменения для разработки различного рода отчетов. Так как ежедневно все эти данные и изменения необходимо фиксировать, встаёт вопрос каким образом хранить эти данные?
Желательно, чтобы хранение данных было без сторонних программ, но выслушаю различные варианты.
  • Вопрос задан
  • 216 просмотров
Пригласить эксперта
Ответы на вопрос 2
sergey-gornostaev
@sergey-gornostaev
Седой и строгий
Ну, если это big data, то надо строить или арендовать ЦОД.
Ответ написан
Комментировать
Tomio
@Tomio
backend developer (python, php)
Для хранения большого объема архивных данных, по которым нужно будет строить аналитику, используйте ClickHouse. Данная БД позволяет обрабатывать огромные объемы данных (более 1 млрд) достаточно быстро. Но вам нужен соответствующий сервер, с не менее, чем 8-16GB оперативной памяти и достаточно большим жестким диском.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы