Задать вопрос
@vladimirir

Как лучше решить проблему с дублями страниц при поисковой индексации?

Яндекс-вебмастер показал большое количество дублей страниц сайта. Часть из них связана с динамическими страницами, имеющими тем не менее разные адреса. К примеру, site.com/news/testovaya_novost1 и site.com/news/testovaya_novost_2 являются дублями, хотя контент на них разный. Часть формируются из-за незначащих GET-параметров, и на сайте вообще никакая страница кроме поисковой не зависит от GET-параметров, поэтому хотелось бы им всем поставить disallow, но встретил не мало аргументов против такого решения. При этом Яндекс пишет, что в случае генерации дублей из-за незначащих GET-параметров нужно использовать директиву Clean-param, которую не воспринимает гугл. Как в таком случае лучше избавиться от дублей?
  • Вопрос задан
  • 82 просмотра
Подписаться 1 Простой Комментировать
Решения вопроса 1
Mike_Ro
@Mike_Ro
Python, JS, WordPress, SEO, Bots, Adversting
Часть формируются из-за незначащих GET-параметров, и на сайте вообще никакая страница кроме поисковой не зависит от GET-параметров, поэтому хотелось бы им всем поставить disallow, но встретил не мало аргументов против такого решения.

Все страницы с url параметрами заблочить в robots.txt, разблочить лишь те, которые являются страницами-фильтрами (куда попадаем, после фильтрации товаров в каталоге) с get параметрами (если такие имеются), и указать им canonical на страницу без url параметров. Дубли пропадут со временем самостоятельно, но лучше закинуть их на переобход руками в вебмастере.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы