Как обрабатывать большие объемы данных в потоке?

Всем доброго дня.
Ребята, прошу совет.
Имеется большая бд (примерно 5 млн записей). Надо последовательно получить данные из каждой строки и произвести обработку.
Понимаю, что делается это через поток, но не совсем понимаю реализацию этого процесса.
Как можно получать последовательно по 10 записей и далее их обрабатывать, и повторять этот процесс, пока таблица источник не будет прочитана и обработана полностью.
Если есть какие-то другие модули для связи ноды и мискуля буду признателен за ссылку и пример использования.
  • Вопрос задан
  • 132 просмотра
Пригласить эксперта
Ответы на вопрос 1
ThunderCat
@ThunderCat Куратор тега MySQL
{PHP, MySql, HTML, JS, CSS} developer
База в активном использовании или можно остановить работу на часик?
Насколько тяжелые записи в таблице?
Насколько сложная обработка на клиенте?

По 10 записей это с утра до утра будете фигачить, думаю не меньше 200-500 записей за раз, а в идеале 1000 норм. будет. Ибо больше времени на соединение потратите чем на выборку и инсерты.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы