Задать вопрос
@asdz

Ссылки с разными get параметрами это дубли?

Если поисковая машина обнаружила ссылку с произвольным get параметром в урл, например
somesite.ru?fakeparam=blablabla
будет считаться что это дубль somesite.ru или нет?
Т.е. смысл в том что к любой странице можно добавить какие-то параметры, если страница их не обрабатывает, то они не окажут никакого влияния на вывод. Но если поисковая система воспримет такие ссылки как дубль, то получается что надо выполнять проверку на корректность параметров и делать либо редирект или 404 либо использовать canonical?
  • Вопрос задан
  • 7014 просмотров
Подписаться 1 Оценить 3 комментария
Пригласить эксперта
Ответы на вопрос 4
EvilsInterrupt
@EvilsInterrupt
System programming, Reversing Engineering, C++
Я бы не считал это дублем. Параметр может влиять на формирование результата. Только лишь на основании не особо удачного названия параметра со словом 'fake' я бы не стал делать выводов о том как он влияет на результат.

Другими словами, я бы спросил себя : Влияет ли на результат параметр? Если да, то это не дубли
Ответ написан
Комментировать
GreenBee
@GreenBee
ASP.NET программист
Если ПС добавить оба эти URL в свою базу, и по ним показывается один и тот же контент (а раз параметр фейковый, то и контент будет одинаковый), то да, она посчитает эти страницы дублями.

canonical действительно поможет этого избежать.

Еще есть директивы в robots.txt у Яндекса: https://yandex.ru/support/webmaster/controlling-ro...
но гугл их вроде не поддерживает.

А вообще используйте Sitemap и будет вам счастье
Ответ написан
да, дубли
можно закрыть от индексации Disallow: /*?
или очистить через Clean Param - https://yandex.ru/support/webmaster/controlling-ro...
или прописать каноникал на страницу, которую вы хотите оставить в поиске

каждый из данных вариантов имеет минусы, так что выбирать нужно под сайт индивидуально
Ответ написан
Комментировать
tarasnick1
@tarasnick1
SEO оптимизатор
Приведенный вами пример является дублем - так как URL-ы страниц различаются, но контент размещенный на них совпадает. Самое простое решения закрыть дубли, генерируемые при помощи get параметров через robots.txt

У вас на данный момент отсутствует robots.txt на сайте
Чтобы закрыть от индексации дубль, который Вы привели в качестве примера - в корне сайта необходимо размесить файл robots.txt следующего содержания:
User-agent: Yandex
Disallow: /?fakeparam=
Host: www.somesite.ru/

Анализатор robots.txt вам в помощь - https://webmaster.yandex.ru/robots.xml#results :)
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы