Необходимо ли исключать UTM-ссылки в robots.txt?

К нам на работу пришла новая девочка-маркетолог и пробежавшись по своему чек-листу сделала утверждение, что надо по закрывать от индексации поисковыми роботами utm-метки к ссылкам.

Понимая что такие метки являются уже отраслевым стандартом для анализа рекламных кампаний, неужто поисковые системы за пятилетку не научились сами понимать и склеивать дубли?

Потом пошёл дальше и просмотрел robots.txt крупнейших сайтов. Вышло что никто на Западе не занимается подобными вопросами, а страдают ими только русскоязычные ресурсы.

Итого какой вариант для больших сайтов предпочтителен:
- сразу прославлять канонические ссылки в мета-тегах (оно же решит многие другие проблемы с дублями)
- учить роботов не индексировать по меткам в robots.txt
- ничего не делать, т.к. поисковики и сами умеют склеивать страницы с utm параметрами
  • Вопрос задан
  • 7398 просмотров
Пригласить эксперта
Ответы на вопрос 2
opium
@opium
Просто люблю качественно работать
канонический урл в мета тегах
Ответ написан
Комментировать
vettaxa
@vettaxa
Увлекаюсь SEO-шмэо
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы