Сайт требует авторизации, поэтому не понять, какая там используется технология.
Универсально, максимально просто (с точки зрения разработки), но специфический метод разработки - сделать все из браузера.
Достоинства - не важно как реализован сайт - генерация на сервере или на клиенте. Почти все простые инструменты противодействия скрапингу не будут работать. Большая часть анализа (реверсинженеринг) может быть произведена из браузера а что то даже автоматически. Готовый парсер DOM (собственно браузер и парсит). Работает там где не работают сторонние инструменты (например aliexpress делает верстку со специальными ошибками и сторонние парсеры разбирают DOM не правильно).
Недостатки - требует запущенный браузер. Достаточно медленный (для однопоточных скрапперов это не критично). Неудобно сохранять объемные результаты, так как браузерное хранилище обладает специфическим api, ну на любителя (но можно на каждый объект выдавать запрос на скачивание в отдельный файлик, со включенным в браузере сохранением без вопроса, а потом простым внешним скриптом объединить, так же можно поднять свой https сервер и слать ему запросы с собранными данными).
Итак, используя консоль разработчика браузера (F12 и правая кнопка на нужном элементе на странице - исследовать) исследуешь веб приложение, из каких оно состоит страниц, в какой их последовательности загружать, на какой странице какие данные нужно собирать (кнопка исследовать - там в DOM можно даже получить автоматический css селектор, по правой кнопке копировать как..) Между страницами переходить с помощью расширения браузера tempermonkey/greasemonkey (собственно все на его основе сделать, этот плагин инжектит твой скрипт на страницу, причем на разные страницы по маске можно задать разный скрипт).
Обычно требуется задать временной интервал между операциями (например отсчитать 5 сек после открытия страницы, распарсить ее и перейти к следующей), делай это с помощью window.
setTimeout(function(){...},миллисекунды)
Элементы на странице ищешь штатным document.querySelector('css selector') и querySelectorAll а там к ним .value или .innerText или .checked (в зависимости от типа DOM элемента, читать документацию, например для
input). Разрабатывай, тестируя код прямо в консоли браузера, а потом переноси в tempermonkey. Отладки там нормальной нет (есть но неудобная) поэтому активно используй логирование console.log(item); или просто item; будет видно все об объекте. Настоятельно рекомендую проверять все на null (если не найдется нужный элемент) и тогда выводи сообщение, по которому сможешь понять какой именно элемент не был найден (даже простого номера хватит, но удобнее когда тебе скрипт пишет - Для документа 123221 в секции 'Расширенная информация' не найдено элемента 'Наимнование'.
Результат собирай в строку, а затем отправляй ее на сохранение.
Снипет для каждого случая спрашивай у ИИ..
Не задавай ей полный вопрос со всей задачей, это сложно для нее, дели задачу на подзадачи и отправляй ему их. Напрмиер 'напиши javascript функцию для браузера для симуляции выгрузки файла в браузере, имя и содержимое этого файла пусть будет указано в аргументах этой функции'.
ИИ пока терпимо работает только с текстовой информацией, он понимает и знает документацию, но к примеру верстку анализирует плохо, вся визуальщина в зачаточном уровне, поэтому ему к примеру будет сложно 'найти элемент на странице левее указанного', поэтому даже не пытайся притянуть его для решения такой задачи