Задать вопрос
@mtclwn

Стоит ли закрывать /filter в robots.txt?

Суть проблемы: Яндекс.вебмастер ругается на дубли страниц и одинаковые мета-теги. И если вопрос с дублями можно решить, закрыв GET-параметры через Dissalow: *? , то с фильтром сложнее. Адрес страницы получается такой: сайт.ру/каталог/раздел/filter/параметр фильтра

Где-то читал, что фильтр может положительно влиять на индексацию, т. к. роботы видят, что сайт оптимизирован для пользователей. Стоит ли прописать в robots.txt Dissalow: *filter ?
  • Вопрос задан
  • 420 просмотров
Подписаться 2 Простой 2 комментария
Помогут разобраться в теме Все курсы
  • Skillbox
    SEO-специалист от AMDG
    4 месяца
    Далее
  • Digital Skills Academy
    Mini-MBA: Интернет-маркетолог
    4 месяца
    Далее
  • MAED
    Интернет-маркетолог PRO
    7 месяцев
    Далее
Решения вопроса 1
pro100taa
@pro100taa
Где-то читал, что фильтр может положительно влиять на индексацию


Верно.

что сайт оптимизирован для пользователей.


не столько они смотрят, что сайт оптимизирован для пользователей, сколько это может дать значительный приток дополнительного трафика.

Идеально - доработать фильтры, чтобы они выдавали разные метатеги. Тогда Яндекс перестанет ругаться.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы