Добрый день. Есть сайт (с формой авторизации, как vk, например), и нужно сохранить все jpg (ввиду своего веса все не успевают подгружаться и если сохранять через сохранение web-страницы целиком загружает уже то, что успел подгрузить, а не загужает на диск заново, если сохранять отдельно все файлы - загружается все нормально (т.е. переходить по прямой ссылке на изображение)). Из-за авторизации внешний от браузера даунлоадер вряд ли справится. Подскажите что-нибудь, или какой-нибудь способ, чтобы страницы при сохранении загружались заново.
@dizballanze ещё разок...
Есть сайт - на нем авторизуются, чтобы посмотреть информацию. Внутри есть около 200 страниц, на которых по 20 фотографий в среднем. Задача - скачать их все. Но проблема с подгрузкой, потому что на странице они могут не загрузиться и просто "скачать полностью web страницу" в этом случае не работает (скачивается уже то, что загрузилось в браузере).
Видимо перечитать не мешало бы ;)
Есть сайт с авторизацией (внешний downloader уже не подключить к обычной ссылке). На однотипных страницах сайта раскиданы в среднем по 20 картинок. Картинки, из-за своего веса (колеблется от 400 Кб до 6Мб) не успевают все подгружаться. Надо их все скачать разом, чтобы по одной не тыкать на сохранение, но если скачивать через сохранение web страницы целиком - он сохраняет (т.е. что успело загрузиться - то и получилось в загруженных файлах). Вот как обойти это и загружать страницу с нуля (точнее заставить браузер не сохранять, а загружать)
Тот же wget прекрасно умеет проходить авторизации.
В типичном случае сайт при авторизации устанавливает куку сессии, которую можно взять и подсунуть wget у. В результате wget будет посылать все запросы с этой кукой и сайт будет думать что это авторизованный клиент.
Пока сидел думал, может по другому можно как решить и надумал вот что:
все ссылки на эти файлы начинаются с .../attachment/имя_файла.jpg
Может скрипт к загрузке какой прикрутить, чтобы скачивал все файлы с этого самого attachment'а
@slaykovsky@opium если вы СЛЕПЫЕ, то можете ещё раз взглянуть на слово "подгрузка". Файлы не подгружаются, соответсвенно и обычный downloader не выполняет своей функции. Надо чтобы он запрашивал адрес сайта, а не "сохранял целиком", умники.