К нам на работу пришла новая девочка-маркетолог и пробежавшись по своему чек-листу сделала утверждение, что надо по закрывать от индексации поисковыми роботами utm-метки к ссылкам.
Понимая что такие метки являются уже отраслевым стандартом для анализа рекламных кампаний, неужто поисковые системы за пятилетку не научились сами понимать и склеивать дубли?
Потом пошёл дальше и просмотрел robots.txt крупнейших сайтов. Вышло что никто на Западе не занимается подобными вопросами, а страдают ими только русскоязычные ресурсы.
Итого какой вариант для больших сайтов предпочтителен:
- сразу прославлять канонические ссылки в мета-тегах (оно же решит многие другие проблемы с дублями)
- учить роботов не индексировать по меткам в robots.txt
- ничего не делать, т.к. поисковики и сами умеют склеивать страницы с utm параметрами
Надо написать в яндекс через форму обратной связи и запросить их официальную позицию по UTM-меткам, но я что-то тоже не встречал в индексе страниц с utm-метками, мне кажется они не индексируются...
Перешел на ответ по ссылке из письма с UTM-меткой. Решил глянуть, а что же на toster.ru - нет ни канонических ссылок, ни редиректов, ни директив в robots.txt