@Nataly_m

Robots.txt, директива Clean-param для Get запроса — Как настроить?

Добрый день. На сайте проиндексированы 2 страницы, по сути являющиеся дублями:

site.ru и site.ru/?

Часть страниц настроена таким образом, что использует get параметры.

Можно ли как-то закрыть от индексации именно такой адрес site.ru/? или как-то решить проблему по другому?
  • Вопрос задан
  • 323 просмотра
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы