Экспериментирую с вариантами защиты от копирования сайта. Понимаю, что это "борьба с ветряными мельницами" и при желании все скопируют, но все же. Хотелось бы понять последствия использования такого хода на случай копирования страницы сайта домохозяйкой / бездушным кривым парсером + сторонними сервисами (поисковыми системами, их ботами и сервисами).
Представим. В страницу встроен JS:
// устанавливаем имя домена
var $url = "example.com";
// если установленный домен на совпадает с текущим, редиректим на наш домен
if ( $url !== location.host) { location.href = 'http://' + $url; }
И тут, вроде, все работает так, как и должно работать. Если человек исследует наш сайт, то ничего не произойдет.
Если кто-то скопировал страницу или сайт целиком и разместил на хостинге, тогда встроенный код будет редаректить на наш домен. Вариант с поиском и исправлением кода домохозяйкой исключаем, также исключаем исправление JS кода ленивым человеком, исправить можно, но просто исключаем этот вариант.
А с поисковыми системами и их сервисами все не так просто, как мне кажется. К примеру, если встроить этот код и открыть для просмотра какую-нибудь страницу в Вебвизоре Яндекс.Метрики, тогда мы увидим, что с любой страницы нашего сайта нас будет редиректить на главную страницу нашего же, так как, по-видимому, страница нашего сайта открывается по каким-то внутренним адресам Метрики, и все редиректится на нашу главную страницу, мы не увидим требуемую страницу в Вебвизоре. Это можно поправить использованием чуть другой записи в JS (укажем точный URL для страницы, а не только доменное имя):
// устанавливаем URL страницы
var $url = "http://example.com/page-x";
// если установленный ГКД на совпадает с текущим, редиректим на нужный URL
if ( $url !== location.href) { location.href = $url; }
И этот вариант будет отрабатывать конкретно в Вебвизоре корректно, но вопрос в другом! Сколько подобных нюансов работы поисковых систем есть — я не знаю и подобное решение, вероятно, может только навредить сканированию и отображению сайта поисковыми системами, так как некоторые их алгоритмы, к примеру, разбора JS кода и прочего — тайна за семью печатями.
Вот я и подошел к главному вопросу — использование такого хода в указанных целях (без учета "да нафиг это надо, захотят — спарсят") разумно или существуют подводные камни в алгоритмах поисковых систем их сервисов, которые могут привести к нерадостным последствиям при использовании этого приема?