Задать вопрос
@Nataly_m

Robots.txt, директива Clean-param для Get запроса — Как настроить?

Добрый день. На сайте проиндексированы 2 страницы, по сути являющиеся дублями:

site.ru и site.ru/?

Часть страниц настроена таким образом, что использует get параметры.

Можно ли как-то закрыть от индексации именно такой адрес site.ru/? или как-то решить проблему по другому?
  • Вопрос задан
  • 326 просмотров
Подписаться 1 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    Python-разработчик с нуля
    6 месяцев
    Далее
  • Skillfactory
    DevOps-инженер
    6 месяцев
    Далее
  • SF Education
    Бэкенд-разработчик на Python
    3 месяца
    Далее
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы