MToUCH
@MToUCH
Сетевой инженер

Как правильно исключить динамические адреса и страницы с URL «.html?»?

Есть страницы, которые выводятся парсером и имеют URL типа:
/zhenskie-platya-_53.html?makeOrder=1

Как в robots.txt закрыть страницы, в URL которых есть html? частица?

Нашел в сети способ закрытия с помощью директивы Clean-param, ниже скриншот:
f22c99dc80244eb083832664c6390c6e.png

Но как прописать именно для моего случая, чтобы при страницы с html? частицей именно закрывались?
  • Вопрос задан
  • 499 просмотров
Пригласить эксперта
Ответы на вопрос 1
FreeThinker
@FreeThinker
SEO, юзабилити, спорт, нумизматика, атеизм
Clean-param работает только для Яндекса. Да и не понятно, работает ли.

Для вашего случая подойдет спецсимвол *, обозначающий любую последовательность символов:

Disallow: *.html?*

Подробнее обо всем: https://yandex.ru/support/webmaster/controlling-ro...
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы