Задать вопрос

Как закрыть от индексации страницы-дубли с GET-параметрами Битрикс?

Есть страницы, которые требуется закрыть от индексации в robots.txt

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/31021/?oid=31041

/catalog/obuv/muzhskaya_obuv/276/?oid=469

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/30761/?oid=30742

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka/30662/?oid=30658

/catalog/santekhnika/polotentsesushiteli/vodyanye_polotentsesushiteli/lesenka_s_polkoy/30789/?oid=31127

Подскажите пожалуйста, что нужно написать в Clean-param: ?
  • Вопрос задан
  • 1344 просмотра
Подписаться 1 Средний 1 комментарий
Помогут разобраться в теме Все курсы
  • Яндекс Практикум
    Python-разработчик
    10 месяцев
    Далее
  • Skillfactory
    DevOps-инженер
    6 месяцев
    Далее
  • Хекслет
    Фронтенд-разработчик
    10 месяцев
    Далее
Пригласить эксперта
Ответы на вопрос 2
@mila1941
А разве они не закрыты правилом Disallow: /*?
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы