grigor007
@grigor007
http://goldapp.ru

Надежен ли php multicurl при большом количестве запросов? Какие есть альтернативы?

Всем доброго вечера!

Сейчас есть надобность генерации нескольких обращений к php скрипту (с разными параметрами) параллельно, то есть в одно и то же время. Сделал через multicurl. Но у меня может быть 1000 вызовов единовременно. Не будет ли проблем?

Не зависнет ли multicurl при генерации 1000 обращений?

Какое можно применить более надежное решение для этой задачи, используя php?
  • Вопрос задан
  • 1801 просмотр
Решения вопроса 2
DmitriyEntelis
@DmitriyEntelis
Думаю за деньги
1000 запросов в параллели - это реально не мало.
Может упасть и по памяти, и провиснуть по трафику (если не dedicated сервер), и по быстродействию, и по антиддос.
Нюансов много, тестируйте.

Я бы пересмотрел архитектуру либо в сторону минимизации запросов (если это возможно вообще), либо в сторону введения очередей.
Ответ написан
wielski
@wielski
✔ Совет: Вам помогли? Отметьте ответы решением.
Зависит от сервера.
Падает не стесняясь (без ошибок и предупреждений), не отдавая результатом потока ничего.
На среднем VDS максимум 100 одновременных запросов удалось выжать, и то иногда выполнялось около 95.
Ответ написан
Пригласить эксперта
Ответы на вопрос 3
miraage
@miraage
Старый прогер
Гипотетически, надёжен.
Я бы взял Guzzle.

docs.guzzlephp.org/en/latest/quickstart.html#concu...
Ответ написан
dimonchik2013
@dimonchik2013
non progredi est regredi
PyCurl нормально жужит примерно на 300 запросах, 1000 не тянет - куча отваливается по таймауту, 500, наверно, тянет, только одновременно все равно около 300
Ответ написан
@astrotrain
Решением может быть pthreads: https://github.com/krakjoe/pthreads , только документации не так много и разработчик не всегда отвечает на вопросы.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы