@po4emu4ka2020

Как сделать исключения для disallow в robots.txt?

Здравствуйте, коллеги!
Подскажите, пожалуйста, в такой ситуации:
Имеется robots.txt с правилами:
Allow: */catalog
Allow: *?utm_source=market.yandex.ru

Disallow: *&utm
Disallow: *?
Disallow: *index.php

Будет ли индексироваться страница по такому url?
site.ru/catalog/product1?utm_source=market.yandex.ru&utm_term=111

Или все-таки префикс *&utm на Disallow будет приоритет выше иметь?
Тогда как сделать так, чтобы Allow: *?utm_source=market.yandex.ru имел выше приоритет?

Буду благодарен вашим советам.
  • Вопрос задан
  • 45 просмотров
Пригласить эксперта
Ответы на вопрос 1
vpetrov
@vpetrov
частный SEO-специалист, textarget.ru
robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
CTRL+ Москва
от 250 000 до 320 000 ₽
CTRL+ Москва
от 200 000 до 300 000 ₽
CTRL+ Белград
от 250 000 до 320 000 ₽
22 нояб. 2024, в 02:56
10000 руб./за проект
22 нояб. 2024, в 00:55
500 руб./за проект
21 нояб. 2024, в 23:30
300000 руб./за проект