Задать вопрос
@mtclwn

Стоит ли закрывать /filter в robots.txt?

Суть проблемы: Яндекс.вебмастер ругается на дубли страниц и одинаковые мета-теги. И если вопрос с дублями можно решить, закрыв GET-параметры через Dissalow: *? , то с фильтром сложнее. Адрес страницы получается такой: сайт.ру/каталог/раздел/filter/параметр фильтра

Где-то читал, что фильтр может положительно влиять на индексацию, т. к. роботы видят, что сайт оптимизирован для пользователей. Стоит ли прописать в robots.txt Dissalow: *filter ?
  • Вопрос задан
  • 417 просмотров
Подписаться 2 Простой 2 комментария
Помогут разобраться в теме Все курсы
  • Skillbox
    SEO-специалист от AMDG
    4 месяца
    Далее
  • Skillbox
    Интернет-маркетолог с нуля до PRO
    4 месяца
    Далее
  • Digital Skills Academy
    Mini-MBA: Интернет-маркетолог
    4 месяца
    Далее
Решения вопроса 1
pro100taa
@pro100taa
Где-то читал, что фильтр может положительно влиять на индексацию


Верно.

что сайт оптимизирован для пользователей.


не столько они смотрят, что сайт оптимизирован для пользователей, сколько это может дать значительный приток дополнительного трафика.

Идеально - доработать фильтры, чтобы они выдавали разные метатеги. Тогда Яндекс перестанет ругаться.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы