Расскажу свой пример, может поможет. Мне как то нужно было спарсить +-11к страниц с одного сайта. На сайте было ограничение на количество запросов с одного IP или шо то в этом роде. В общем как поступил, использовал cUrl, в курла можно установить хедеры, а также использовать прокси. В интернете есть сайты с списком бесплатных прокси серверов, так же я нашел в инете список хедеров. Все это я закинул в массивы. И с помощью cUrl парсил, если ответ от сайта - ошибка, или не приходил контент, то брался другой хедер и прокси, и так пока не получал нужный мне контент. Скажу сразу прокси серверов нужно накидать как можно больше, они часто работали медленно или вообще не работали. Если нужно, то могу попытаться найти этот код, но предупрежу сразу, он немного костыльный, потому что одноразовый))