Смысл в том, что возникла необходимость периодически ходить по разным сайтам и делать копии табличек с данными, размещенные на этих сайтах.
Как автоматизировать этот процесс? Писать парсер каждый раз для нового сайта - геморрой.
Может быть, есть готовая прога, которая сможет ходить по сайту и скриншотить все страницы целиком по указанным ссылкам (с небольшой глубиной).
Или может быть, что-нибудь подскажите еще интересного? :)
Заранее спасибо!
-
Вопрос задан
-
289 просмотров