Парсинг сайта (его содержимого) из веб-архива. Как?

Всем доброго времени суток!

Собственно, вопрос непосредственно в заголовке. Как сегодня лучше всего вытянуть содержимое (или сам сайт) из веб-архива?
Быть может есть у кого-то опыт, поделитесь плюшками.

Заранее спасибо.

ps. быть может есть какая-то библеотека python для этого дела. Это было бы ещё лучше.
  • Вопрос задан
  • 379 просмотров
Пригласить эксперта
Ответы на вопрос 3
FanatPHP
@FanatPHP
Чебуратор тега PHP
Я вот реально не понимаю, зачем парсинг нужен настолько беспомощным персонажам, которые даже не умеют пользоваться интернетом. И им нужен отдельный человек, чтобы за них сделать запрос в гугль.
Ответ написан
weranda
@weranda
Wayback Machine Downloader называется штуковина — это если все скопировать, а если парсить, т. е. разбирать на части, то тут масса вариантов, к примеру lxml (вроде его используют внутри BeautifulSoup и Scrapy).
Ответ написан
@hurgadan
как вариант https://github.com/puppeteer/puppeteer, для парсинга сайта. Правда не знаю что вы имеете в виду под "веб-архивом"
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы