Как написать парсер всех файлов на сайте? Что бы был поиск как html страниц так и css, js и картинок в тех папках которые они находятся на сайте, и последующее сохранение файлов на локальный диск в той иерархии как на сайте? Использовать готовые программы по типу WebCopy, не имеет смысла. Хочу разобрать в этом вопросе. Не прошу писать программу. Может у кого-то есть примеры или исходники? Буду признателен.
Да как, никак.
Можешь парсить всё ссылки, качать ресурсы, переходить по другим найденным ссылкам этого сайта и там делать тоже самое. Естественно исключая уже проверенные\скачанные ссылки. Только это не гарантирует нахождение всех файлов и всех ссылок.
Хотите действительно разобраться? Никак, это невозможно. Современные сервера имеют защиту, а также роутер. Иными словами, вы можете скачать только то, что вам разрешит скачать сервер.
А как же кеш? А вот кеш скачать вполне реально, но нужно обойти защиту.