Как закрыть от индексации страницы-дубли с GET-параметрами Битрикс?

Есть страницы, которые требуется закрыть от индексации в robots.txt

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/31021/?oid=31041

/catalog/obuv/muzhskaya_obuv/276/?oid=469

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/30761/?oid=30742

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka/30662/?oid=30658

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/30789/?oid=31127

Подскажите пожалуйста, что нужно написать в Clean-param: ?
  • Вопрос задан
  • 1073 просмотра
Пригласить эксперта
Ответы на вопрос 2
@mila1941
А разве они не закрыты правилом Disallow: /*?
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы