Задать вопрос

Какими инструментами можно сохранять конкретные страницы сайтов (свой веб-архив)?

Для собственных (а может и нет) нужд сделал сервис закладок www.relater.ru и к нему хочу прикрутить возможность сохранить конкретную страницу на которую делается закладка (на случай, если конечная страница будет недоступна).

Первое, что пришло в голову, это тупо wget'ом скачивать страницу, ну а дальше уже с ней работать (или оставлять как есть в архиве).

... но в идеале хочется сделать сохранение страницы как в фейсбуке или вконтакте (именно текст статьи), но не представляю как "выдерать" контент со страницы (текст статьи) и исключать мусор (шапка, футер, элементы меню).
  • Вопрос задан
  • 2758 просмотров
Подписаться 3 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • AndroidSprint
    Попробуйте себя в роли разработчика за 10 дней
    1 неделя
    Далее
  • Stepik
    Парсинг на Python для начинающих
    2 недели
    Далее
  • Skillfactory
    Профессия Python-разработчик PRO
    12 месяцев
    Далее
Решения вопроса 1
@26info Автор вопроса
Решение найдено — https://github.com/feelinglucky/php-readability , на что в немалой степени повлиял ответ @MonkAlbino
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 2
MonkAlbino
@MonkAlbino
Фронтенд разработчик
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы