Closes the stream and releases any system resources associated with it. Once the stream has been closed, further read(), ready(), mark(), reset(), or skip() invocations will throw an IOException. Closing a previously closed stream has no effect.
HashMap<String,SomeClass> someHashMap= ...;
Collections.sort(someHashMap, new Comparator<SomeClass>() {
public int compare(SomeClass o1, SomeClass o2) {
//return a negative integer, zero, or a positive integer as the first argument is less than, equal to, or greater than the second.
}
});
long start = System.currentTimeMillis();
//цикл
long result = System.currentTimeMillis() - start;
Задача:
Cкачать все .pdf файлы, ссылки на которые находятся на странице `http://www.advancedlinuxprogramming.com/alp-folder`.
Решение:
wget -r -l1 -t1 -nd -N -np -A.pdf -erobots=off www.advancedlinuxprogramming.com/alp-folder
Комментарии:
-r Рекурсивно, т.е. скачать страницу `http://www.advancedlinuxprogramming.com/alp-folder` и пойти по ее ссылкам;
-l1 Глубина рекурсии равна 1, т.е. скачиваем только прямые сслыки, находящиеся непосредственно на странице `http://www.advancedlinuxprogramming.com/alp-folder`;
-t1 Делаем только одну попытку скачать файл;
-nd Не создавать директории, а скачивать все в текущий каталог; если встретятся два файла с одинаковыми именами, к имени будет добавляться число;
-N Не скачивать, если файл не новее локальной копии;
-np Не следовать сслыкам на родительскую директории;
-A.pdf Скачивать только файлы, заканчивающиеся на .pdf;
-erobots=off Не скачивать стандартный файл robots.txt;
Меня интересует этот вопрос, потому что по моей, возможно не верной, логике, рабочее окружение принятое по умолчанию пилится должным образом.к несчастью чаще наоборот, все считают своим долгом прикрутить что то эдакое для выделения из масс а на практике ломают совместимость.