Задать вопрос

Необходимо ли исключать UTM-ссылки в robots.txt?

К нам на работу пришла новая девочка-маркетолог и пробежавшись по своему чек-листу сделала утверждение, что надо по закрывать от индексации поисковыми роботами utm-метки к ссылкам.

Понимая что такие метки являются уже отраслевым стандартом для анализа рекламных кампаний, неужто поисковые системы за пятилетку не научились сами понимать и склеивать дубли?

Потом пошёл дальше и просмотрел robots.txt крупнейших сайтов. Вышло что никто на Западе не занимается подобными вопросами, а страдают ими только русскоязычные ресурсы.

Итого какой вариант для больших сайтов предпочтителен:
- сразу прославлять канонические ссылки в мета-тегах (оно же решит многие другие проблемы с дублями)
- учить роботов не индексировать по меткам в robots.txt
- ничего не делать, т.к. поисковики и сами умеют склеивать страницы с utm параметрами
  • Вопрос задан
  • 8887 просмотров
Подписаться 1 Оценить 2 комментария
Помогут разобраться в теме Все курсы
  • Skillbox
    SEO-специалист от AMDG
    4 месяца
    Далее
  • Skillbox
    Интернет-маркетолог с нуля до PRO
    4 месяца
    Далее
  • Digital Skills Academy
    Mini-MBA: Интернет-маркетолог
    4 месяца
    Далее
Пригласить эксперта
Ответы на вопрос 2
opium
@opium
Просто люблю качественно работать
канонический урл в мета тегах
Ответ написан
Комментировать
vettaxa
@vettaxa
Увлекаюсь SEO-шмэо
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы