Задать вопрос
@tinsle1

Как в Robots.txt закрыть страницы с параметрами?

Здравствуйте. Подскажите, на сайте наряду с нормальными страницами присутствуют дубли двух форматов:

https://www.site.ru/ - оригинальная страница
https://www.site.ru/?&c=False -дубль первого формата

https://www.site.ru/- оригинальная страница
https://www.site.ru/?&s=1&c=False - дубль второго формата

Правильно ли будети прописать для них в robots.txt следующие правила:
Disallow: /?&s=1&c=False
Disallow: /?&c=False

Заранее спасибо.
  • Вопрос задан
  • 207 просмотров
Подписаться 1 Простой Комментировать
Пригласить эксперта
Ответы на вопрос 2
Disallow: /*?
Ответ написан
Комментировать
dimonchik2013
@dimonchik2013
non progredi est regredi
https://developers.google.com/search/reference/rob...

лучше все же если

*?&s=1&c=False
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы