Google App Script дать доступ к почте и дело в шляпе.
Если не сможете сами - можно попробовать найти исполнителя на фрилансе.
Задача достаточно простая
Итоговые данные - гугл таблицы
Учет пожеланий/выбор смен - гугл формы
Логика - Google App Script
(ну и планирование по расписанию какому, это то тоже Google App Script есть из коробки)
Сами формы тоже допустимо генерировать автоматически на основании данных которые есть в данный момент у вас
Вторая часть задачи - сохранять все это в бд (в идеале на сайте сортировать по дате). а на очередной странице если объявлений старых > 1 значит эти объявлений уже видели. а все что до этого добавляем в бд с пометкой новые.
Ну и последнее - в идеале какой то триггер или евент. Который будет стучаться в телегу с новыми данными и слать вам сообщения в бот
Актуальность данных тоже лучше поддерживать. Раз в N время (например 1/2/3 суток) проходимся по всем страницами объявлений и тех объявлений которых нет/снято с продажи удаляем в нашей бд
kaxa3201, значит условия не видит. попробуй сломать/или каким то другим способом вызвать exception. Там и увидишь свой запрос и по идее должен понять - что собственно не так
Виджет можешь создать и прям на фронте (если совсем не заморачиваться).
А вообще конечно лучшим решением это по расписанию (раз в сутки например) парсить, затем складывать себе на бэк все новые отзывы в таблицу и просто потом вываливать юзеру
И да, это не steam web api (там почти ничего нету). Все основные стимовские методы можно достать так - дергаешь нужный функционал на вебе, смотришь в дебаггер, повторяешь на питоне
Первый мой самый комментарий где я прикладывал скрины апихи 1-2-3.
Там мы можем посмотреть на ответ. Каждая вакансия имеет свой id и базовую информацию типо скиллов и тд.
DOM - это HTML ваш из которого состоит страница.
В апихе ответа нету, поэтому если вам нужно описание придется его доставать из HTML.
Пкм по странице, просмотреть код страницы и в поиск вбиваем любое слово из вакансии.
Далее смотрим где находится описание и думаем как его достать, к чему прицепится что будет максимально долго жить.
Тут можно прицепится либо к ивенту который отправляется в гугл аналитику (от аналитики откажутся врятле, но дескрипшн передавать перестать могут, но это достать будет куда проще).
ну и останется только избавится от всех тегов типо и тд
--
Вариант 2. Более надежный на мой взгляд, лучше не цеплятся к классам, а к дата аттрибутам (их менять будут редко, так как правило на них висит какая то логика).
Так например можно найти это -
data-target="job_show_description_full">Мы создаём аналитический сервис, который...
парсим все после job_show_description_full, попутно удаляя теги из страницы. Можно даже в теории достать с тегами, а затем просто запулить это в какую то библиотеку которая работает с DOM и достать только inner text. Искать можно так библиотеку - python+dom+parser+html
Регулярку можно потетстить тут (только скорее всего придется включить /m флаг (multiline). Ну и конечно не суйте сразу весь HTML на сайт а только кусок regex101