@tinsle1

Как в Robots.txt закрыть страницы с параметрами?

Здравствуйте. Подскажите, на сайте наряду с нормальными страницами присутствуют дубли двух форматов:

https://www.site.ru/ - оригинальная страница
https://www.site.ru/?&c=False -дубль первого формата

https://www.site.ru/- оригинальная страница
https://www.site.ru/?&s=1&c=False - дубль второго формата

Правильно ли будети прописать для них в robots.txt следующие правила:
Disallow: /?&s=1&c=False
Disallow: /?&c=False

Заранее спасибо.
  • Вопрос задан
  • 113 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы