Можно скачать фотографии с определенной страницы сайта?
Есть страница сайта, catalog.archives.gov/id/146403916
И таких страниц еще несколько, т.е. скачивать весь ресурс - не вариант
Функция скачивания картинок на странице доступна, но только по 1 штуке, ручками, можно ли как-то автоматизировать процесс?
Конечно можно, вот только готовых решений не ждите. Под специфическую задачу нужен специфический скрипт. В данном случае, надо писать расширение для парсинга, бесплатно вам это никто не сделает.
Не могли бы подсказать , как это делается, дать примерный алгоритм?
Или хотя бы направить в сторону изучения вопроса, что почитать, чтобы быстро с этим справится
По специальности, к сожалению, совсем не связан с областью
Cliquishness, Мне примером-то поделиться не жалко, только вряд ли он Вам поможет. В примере урл сайта будет заменен на фигню.
Есть некий сайт с красивыми фотками красивых девушек. Да, голых :) Фотки хранятся в каталогах с некими идами. По одной скачивать лениво. Имена фоток растут монотонно. Нужно знать ид и сколько фоток в сете - это смотрится на сайте. Потом запускается такой скрипт:
#!/bin/bash
if [ $# -lt 2 ]; then
echo "Run: n_down <bunch_number> <bunch_quantity>"
exit
fi
if [ ! -d $1 ]; then
mkdir $1
fi
cd $1
_start=1
while [ $_start -le $2 ]
do
if [ ! -e $_start.jpg ]; then
echo "Downloading $_start.jpg picture"
wget http://blabla.bla/$1/$_start.jpg
_add=$((RANDOM%10))
_sleep=$((5+$_add))
sleep $_sleep
fi
_start=$(($_start+1))
done
$1 - ид, $2 - сколько фоток в сете. В итоге скачиваться будет http://blabla.bla/ид/1.jpg,http://blabla.bla/ид/2.jpg и т.д до $2. Вам, если решите воспользоваться - нужно найти закономерность, урл и скомпоновать по-своему.