Скопировать сайт с wget или httrack со скачкой скриптов с внешних сайтов?

Всем привет!

Хочу скачать сайт типа:

<!DOCTYPE HTML>
<html lang="ru">
<head>
....
<link rel="stylesheet" href="//google.com/css/style.min.css">
<script src="https://yandex.ru/js/script.min.js"></script>
....
</head>
<body>
....
<a href="/catalog-2/">Другая страница данного сайта</a>
....
</body>


Мне нужно чтобы не было рекурсивной скачки, чтобы не переходила по ссылкам данного сайта (не качала "catalog-2"), НО скачивала все файлы стилей, шрифтов, картинок и т.д. с внешних сайтов (как стили и скрипты google и yandex на примере выше).

Перечитал все документации, перепробовал все параметры, но ничего не выходит.
  • Вопрос задан
  • 244 просмотра
Пригласить эксперта
Ответы на вопрос 1
gedev
@gedev
сисадмин-энтузиаст
Как вариант, можно спарсить (с помощью grep / sed / awk) все внешние ссылки на странице (предварительно загрузив страницу, например, через curl) и дальше уже по этим ссылкам пройтись wget'ом в цикле. Но это уже тянет на целый скрипт.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы