Каким образом можно сделать полный дубликат любого html веб-сайта?
Как ни странно, гугление по этому вопросу выдает старые олдскульные страницы и древние программы.
Есть ли эффективный инструмент, с помощью которого можно было бы легко скопировать произвольный сайт (ну к примеру лендинг-страницу) и получить на выходе архив со всеми страницами, img, css, js, и прочее?
Имеются ли простые или хитрые способы для этого?
xmoonlight: Пример - в студию. В виде вызова (вызовов) wget без какой-либо внешней логики, реализованной внешними скриптами.
Например, вот этого URL: https://www.google.com/maps/@51.0230418,3.7783996,13z
Чем не отличный пример блеснуть знаниями и умением использовать wget.
для клонирования на диск сайтов с документацией - юзал Teleport Pro. Свою задачу вполне хорошо выполняет. Как раз такие программы и есть с "древних" времен, когда постоянного инета не было, и считали каждый байт при повторной загрузке страниц=). Классические сайты они отлично грабят.