Задать вопрос
@po4emu4ka2020

Как сделать исключения для disallow в robots.txt?

Здравствуйте, коллеги!
Подскажите, пожалуйста, в такой ситуации:
Имеется robots.txt с правилами:
Allow: */catalog
Allow: *?utm_source=market.yandex.ru

Disallow: *&utm
Disallow: *?
Disallow: *index.php

Будет ли индексироваться страница по такому url?
site.ru/catalog/product1?utm_source=market.yandex.ru&utm_term=111

Или все-таки префикс *&utm на Disallow будет приоритет выше иметь?
Тогда как сделать так, чтобы Allow: *?utm_source=market.yandex.ru имел выше приоритет?

Буду благодарен вашим советам.
  • Вопрос задан
  • 45 просмотров
Подписаться 1 Простой Комментировать
Пригласить эксперта
Ответы на вопрос 1
vpetrov
@vpetrov
частный SEO-специалист
robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы