В перспективе отключение интернета, поэтому хочу сохранить особо важные статьи локально. Это касается, в частности, хабра. Из программ, позволяющие автоматически сохранять сайты целиком или по правилу, я знаю httrack, но возникли некоторые сложности.
Подкиньте, пожалуйста, литературу, желательно русскую. В частности, интересует следующее:
1) ограничение скорости скачивания: как поставить и как снять это ограничение.
2) при попытке восстановить скачивание (после прерывания/перегрузки системы/др.) с ключами -i или -w выкидывается ошибка переполнения буфера, текст которой могу дополнительно привести.
3) как засейвить хабр правильно? httrack http://habrahabr.ru/users/youngmysteriouslight/ -O habr -w -"*habr.ru/search*" +"*habr.ru/hub*" -"*habr/page*" +"*habr.ru/post/*" +*.jpg
тратится много времени для скачивания картинок и страниц непонятной важности.
4) вики выкидывает 503 forbidden ошибку. А там тоже много полезного.
Не канает. Как Вы представляете сохранение OVER 9000 страниц? Или регулярное (допустим, раз в неделю) обновление уже сохраненных, пусть даже в малом количестве. Проще уж скрипт написать. Но зачем, если для этого есть специализированные программы?
Сохранение избранного в pdf можно, но что если я хочу сохранить не только избранное или не только из хабра. Возьмите другой ресурс, будь то liveinternet или что-то другое, и поставьте ту же задачу. Что тогда делать?
Серьезно, я не вижу более простого решения, чем использовать некоторую программу или скрипт, специально заточенный под такие задачи.
К сожалению, она не подходит, потому что она разработана только под MS Windows, которую я не использую на домашнем компьютере. Конечно, можно использовать VM, но есть, как я понял, альтернативные программы.