Какими инструментами можно сохранять конкретные страницы сайтов (свой веб-архив)?

Для собственных (а может и нет) нужд сделал сервис закладок www.relater.ru и к нему хочу прикрутить возможность сохранить конкретную страницу на которую делается закладка (на случай, если конечная страница будет недоступна).

Первое, что пришло в голову, это тупо wget'ом скачивать страницу, ну а дальше уже с ней работать (или оставлять как есть в архиве).

... но в идеале хочется сделать сохранение страницы как в фейсбуке или вконтакте (именно текст статьи), но не представляю как "выдерать" контент со страницы (текст статьи) и исключать мусор (шапка, футер, элементы меню).
  • Вопрос задан
  • 2752 просмотра
Решения вопроса 1
@26info Автор вопроса
Решение найдено — https://github.com/feelinglucky/php-readability , на что в немалой степени повлиял ответ @MonkAlbino
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 2
MonkAlbino
@MonkAlbino
Фронтенд разработчик
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы