Чем качать веб страницы?

Доброго времени! Мне стыдно, но чем качать веб-странички?
Суть проблемы - если я сохраняю страничку с веб-сайта через браузер, то потом в исходниках нормальный текст.
Если Download Master скормить список ссылок, то странички качаются, но внутри текст такого вида
Охрана

Есть какой то плагин/расширение которому можно скормить список ссылок и он мне их сохранит?
Curl, wget - я за прокси, и мозгов их настроить не хватает. Есть что нибудь попроще? С GUI :)
  • Вопрос задан
  • 208 просмотров
Пригласить эксперта
Ответы на вопрос 2
Zettabyte
@Zettabyte
Проф. восстановление данных ▪ Вопрос? См. профиль
Curl, wget - я за прокси, и мозгов их настроить не хватает

wget -e use_proxy=yes -e https_proxy=https://mapatka:toster_pomog@10.20.30.40:443 https://dirty-videos.com/wild-anal.html

Также можете задать всё это в файле .wgetrc:
use_proxy = on
http_proxy = http://1.2.3.4:3128
https_proxy = https://5.6.7.8:443

И запускать wget -e use_proxy=yes -e https_proxy=$proxy ...

P.S.
С графическим интерфейсом есть WinWGet
Ответ написан
CityCat4
@CityCat4
Если я чешу в затылке - не беда!
Curl, wget - я за прокси, и мозгов их настроить не хватает.

То есть проблема не в отстутсвии софта, а в мозгах :)

man curl
man wget

Есть глобальный файл /etc/wgetrc, есть локальный .wgetrc - в них пишутся настройки для wget
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы