Добрый день коллеги. подскажите что сейчас использует прогрессивное человечество для парсинга сайтов?
Уверен есть что-то поновее обычно CURL.
В частности столкнулся с проблемой парсинга такой страницы:
https://www.bloomberg.com/profiles/companies/00035...
испробовал :
CURL в командной строке,
CURL в php,
Guzzle (тот же курл но в красивой обёртке),
PhantomJS,
python requests,
python scrapy,
nightmareJs ( единственный кто первый раз показал страницу но потом снова не работал)
ничего из этого не помогло. каким-то образом сайт определяет парсеры и не отдаёт данные. Странно но обычный запрос через POSTMAN работает нормально.
Поделитесь опытом, или в таком случае только Селениум может справиться?