@burov0798
Пытаюсь изучать php\js

Как обработать большое количество данных за минуту?

Допустим, есть 1000 данных в БД. Есть php скрипт, который должен обрабатывать их КАЖДУЮ 1 МИНУТУ и выдать какой-либо результат (не важно какой), но за 1 минуту скрипт обрабатывает только 10 данных.
Все делается в цикле while() { ]
Как же их обрабатывать все за 1 минуту?
Создавать 10 скриптов и каждому скрипту выделять по 10 данных и вешать его на cron 1 минуту? Но если все эти скрипты начнут одновременно запускаться,выполняться,потом снова запускаться и т.д, не даст ли это большой нагрузки на процессор?
  • Вопрос задан
  • 1333 просмотра
Пригласить эксперта
Ответы на вопрос 5
@McBernar
Никакой магии — оптимизировать запросы и улучшать железо сервера/распределять между серверами.

Возможно, задачу можно решить с другой стороны — избежать ситуации, когда нужно каждую минуту обходить условную тысячу записей.

Но в любом случае, нужно хоть немного подробностей. Иначе здесь будет гадание на кофейной гуще.
Ответ написан
Комментировать
Оптимизировать запросы или обрабатывать в реалтайме
Ответ написан
Therapyx
@Therapyx
Data Science
Оптимизированные алгоритмы, иначе же выбирать более подходящие платформы для больших данных. Я так предполагаю "MySql" и php - это ужасное решение, если думать о Big Data и ее обработки.
Но как уже писали выше- нужна конкретика, а не "допустим 1000".
Ответ написан
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
Надо превратить цикл в поток. Тогда сможете.
Ответ написан
@res2001
Developer, ex-admin
Переложить обработку на сервер БД, скриптом PHP только стартовать и получать результат.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы