Серверный JS парсер множества аккаунтов с динамичным контентом: куда копать?
Чтобы сразу отсечь непродуктивную полемику: никого не пытаюсь сломать, что-то украсть и проч.
Суть проблемы: есть сайт (крупный международный сервис, но назвать не могу), с которого ~раз в сутки надо скачивать отчёты. Аккаунтов много - несколько десятков, API - нет. Приходится "специально-обученному" человеку много раз перелогиниваться, что занимает уйму времени.
В 21 веке хотелось бы процесс автоматизировать: я сам "php-шник", но там ряд сложностей: авторизация многоэтапная, на ajax'e - с кучей влияющих на процесс cookie's на поддоменах + сам контент отчётов тоже подгружается ajax по post-запросу, естественно с same-origin, так что CRON и прочие школьные технологии не помогут.
Представляется некий браузерный парсер... и, конечно, буду искать специалиста, но привык максимально понимать предмет: из того что нагуглил образовалась только каша из слов, которые пришиты тегами к вопросу.
Если кто-то сталкивался с подобными задачами, пожалуйста, поделитесь рецептом: вообще возможно ли такое и какие есть варианты, какие конкретно технологии лучше использовать. Желательно, с учётом решения возможных побочных проблем, таких как капча, возможная блокировка по IP и проч. Повторюсь: аккаунтов несколько десятков)
ПЫСЫ: не сочтите за наглость - первый раз решился обратиться за помощью к Хабра-сообществу, с надеждой))