@po4emu4ka2020

Как сделать исключения для disallow в robots.txt?

Здравствуйте, коллеги!
Подскажите, пожалуйста, в такой ситуации:
Имеется robots.txt с правилами:
Allow: */catalog
Allow: *?utm_source=market.yandex.ru

Disallow: *&utm
Disallow: *?
Disallow: *index.php

Будет ли индексироваться страница по такому url?
site.ru/catalog/product1?utm_source=market.yandex.ru&utm_term=111

Или все-таки префикс *&utm на Disallow будет приоритет выше иметь?
Тогда как сделать так, чтобы Allow: *?utm_source=market.yandex.ru имел выше приоритет?

Буду благодарен вашим советам.
  • Вопрос задан
  • 39 просмотров
Пригласить эксперта
Ответы на вопрос 1
vpetrov
@vpetrov
частный SEO-специалист, textarget.ru
robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
от 350 000 до 450 000 ₽
DocsInBox Санкт-Петербург
от 200 000 до 280 000 ₽
от 45 000 до 45 000 ₽
29 февр. 2024, в 00:43
5000 руб./за проект
28 февр. 2024, в 23:53
1000 руб./за проект
28 февр. 2024, в 23:20
10000 руб./за проект