Задать вопрос

Как запретить в robots.txt все параметры кроме определённых?

Как запретить все GET-параметры в robots.txt, но кроме определенных. Например таких как: ?page= и ?tag=
То есть чтобы:
Все параметры были недоступны для индексации Disallow
Но параметры ?page= и ?tag= доступны Allow
  • Вопрос задан
  • 2270 просмотров
Подписаться 2 Простой 5 комментариев
Пригласить эксперта
Ответы на вопрос 1
Grinvind
@Grinvind
Помогаю увеличивать трафик с поисковых систем
Такое лучше канониклом закрывать.
Если уверены, что необходимо закрывать от сканирования, тогда попробуйте поэкспериментировать с такой конструкцией:
Disallow: *?*
Allow: *?page=*
Allow: *?tag=*

И ещё не забудьте открыть ссылки на ?fbclid=, на такие ссылки часто ссылаются пользователи, и если их закрыть, ссылочный вес не будет передаваться.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы