@Junior007

Какие есть нюансы в больших данных?

Всем доброго утра!

Такой вопрос, в целях обучения собираюсь разработать веб-парсер - будет собирать определенную информацию из интернета, предполагаю, что в таблице будет около 20 столбцов с различными параметрами.

А вот записей, предположительно, около 500 000 - 1 000 000.
И, разумеется, встает вопрос - как все это правильно сделать?
С парсером то разберусь, интересует именно то, как оптимизировать получение данных из БД? Чтобы было быстро и оптимально работало даже при большом кол-ве запросов, скажем, 20k - 50k в день (день ~10 часов)?

Что можете сходу посоветовать? Какую БД использовать? Какие настройки? СУБД? Книги, статьи?
Кстати, писать собираюсь на C++.

Опыт в этой сфере на данный момент:
Просто знаю как создавать БД в MySQL, соответственно сам SQL, т.е. не знаю никаких тонкостей именно работы с БОЛЬШИМИ ДАННЫМИ. Пока на уровне Select, Insert и т.д.
  • Вопрос задан
  • 321 просмотр
Пригласить эксперта
Ответы на вопрос 1
Denormalization
@Denormalization
500 000 - 1 000 000 - это не БОЛЬШИЕ ДАННЫЕ. Любая БД с любыми настройками даже не заметит.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы