Задача:
Cкачать все .pdf файлы, ссылки на которые находятся на странице `http://www.advancedlinuxprogramming.com/alp-folder`.
Решение:
wget -r -l1 -t1 -nd -N -np -A.pdf -erobots=off www.advancedlinuxprogramming.com/alp-folder
Комментарии:
-r Рекурсивно, т.е. скачать страницу `http://www.advancedlinuxprogramming.com/alp-folder` и пойти по ее ссылкам;
-l1 Глубина рекурсии равна 1, т.е. скачиваем только прямые сслыки, находящиеся непосредственно на странице `http://www.advancedlinuxprogramming.com/alp-folder`;
-t1 Делаем только одну попытку скачать файл;
-nd Не создавать директории, а скачивать все в текущий каталог; если встретятся два файла с одинаковыми именами, к имени будет добавляться число;
-N Не скачивать, если файл не новее локальной копии;
-np Не следовать сслыкам на родительскую директории;
-A.pdf Скачивать только файлы, заканчивающиеся на .pdf;
-erobots=off Не скачивать стандартный файл robots.txt;
Меня интересует этот вопрос, потому что по моей, возможно не верной, логике, рабочее окружение принятое по умолчанию пилится должным образом.к несчастью чаще наоборот, все считают своим долгом прикрутить что то эдакое для выделения из масс а на практике ломают совместимость.
Какая файловая система в Linux поддерживает более 4 млрд файлов?
Как поступают крупные "хостинги фоток", вроде Facebook?