Почему при множественных curl запросах сайт перестаёт отвечать?
Здравствуйте. Хотела организовать проверку uptime. Решила, что это можно сделать через curl + cron запросы к сайту. Собрала curl, сделала curl_getinfo($ch) и начала обновлять страницу, наблюдая за изменениями значений, чтобы выбрать какие мне поля нужны. На какой-то момент страница зависает в моменте загрузки секунд на 20 и в результате выдаёт: [http_code] => 0. Я открываю сайт просто в браузере и вижу, что он не загружается. В начале я вообще подумала, что я его сломала, но я решила сменить свой ip и сайт открылся. Я повторила операцию: начала снова спамить curl запросами и сайт в какой-то (на условно 20ый раз) перестаёт открываться.
Я предположила, что там стоит какой-то анти ддос и несколько раз обновить страницу невозможно, так как тебя банит сервер. Чтобы в этом убедиться я сменила ip в 3 раз, сайт открылся и я начала просто много раз нажимать на ctrl+R на самом сайте. На моё удивление сайт как загружался, так и загружается и никаких проблем не возникло, хотя я обновляла страницу намного больше раз, чем делала curl запросы. Скажите, сервер как-то может отличить CURL от не CURL? Если да, то каким образом и что это за плагин такой?