Как защитить сайт от копирования спец программами типа телепорт про?
Я и сам не раз качал сайты через телепорт про, wget и WinHTTrack
некоторые сайты наотрез не копируются , некоторые дают скачать только часть необходимого , оставляя ссылки в губоком css не тронутыми. Например не качаются стрелки у слайдеров и т.п
Вот собственно вопрос , как этим программам обломать кайф? Ясно дело даже руками можно все скачать если сильно постараться , до такого результата и нужно довести проблему :)
Не знаком с программой, но предположу что она проходится по всем ссылкам которые есть на странице, за исключением js кода... Соответственно если "стрелочки" для слайдера добавляются через js то программа не сможет получить их url
есть логика в ваших словах , но это только верхушка айсберга , мое ИМХО есть какой то скрипт на сервере, но так как я фронтендом занимаюсь , о серверах знаю только как письмо отправить xD Вот решил у профи спросить
Сделайте толстый клиент, если хотите напортить жизнь "качкам". Но это только создаст проблемы ГуглБоту.
А в реальности, это мало от чего спасет. Ведь есть кнопка F12