Задать вопрос
@Nataly_m

Robots.txt, директива Clean-param для Get запроса — Как настроить?

Добрый день. На сайте проиндексированы 2 страницы, по сути являющиеся дублями:

site.ru и site.ru/?

Часть страниц настроена таким образом, что использует get параметры.

Можно ли как-то закрыть от индексации именно такой адрес site.ru/? или как-то решить проблему по другому?
  • Вопрос задан
  • 325 просмотров
Подписаться 1 Оценить Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы