Задать вопрос
@Andrex1911

Как выкачать все gif с сайта?

Есть Сайт. Можно ли как-нибудь выкачать все картинки, которые подгружаются с сайта I.yapx (gif, jpeg) с данной категории со всех страниц, не загружая при этом каждую из них, в автоматическом режиме.. Может с помощью wget кто-то такое проворачивал уже, подскажите?
  • Вопрос задан
  • 144 просмотра
Подписаться 1 Средний Комментировать
Пригласить эксперта
Ответы на вопрос 2
@AUser0
Чем больше знаю, тем лучше понимаю, как мало знаю.
Вообще-то это вопрос для тега Парсинг, и нет, вслепую скачать не выйдет.
Нужно скачивать каждую страницу, вытаскивать из неё URL-ы картинок, и уже после этого скачивать сами картинки.
Ответ написан
mayton2019
@mayton2019
Bigdata Engineer
Попробуйте так.
wget -r -l1 -nd -A jpg,jpeg,png,gif https://example.com

Это работало для классических сайтов (.html / WEB 1.0) где контент был статичным.

К сожалению современный веб контент это вообще ни разу не сайт. Это динамический
документ который генерируется JS приложением прямо в браузере. И чтобы полноценно
создать такой контент вам нужен браузер или шука похожая на Selenium. Иммитатор браузера.
Это требует процесса разработки. Тоесть нужен программист.

Утилиты наподобие wget, curl, httrack работают только со статическим html и не могут гарантировать
что картинки будут скачиваться всегда.

Короче - это опция. Может сработать и может нет.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы