Задать вопрос
@mtclwn

Стоит ли закрывать /filter в robots.txt?

Суть проблемы: Яндекс.вебмастер ругается на дубли страниц и одинаковые мета-теги. И если вопрос с дублями можно решить, закрыв GET-параметры через Dissalow: *? , то с фильтром сложнее. Адрес страницы получается такой: сайт.ру/каталог/раздел/filter/параметр фильтра

Где-то читал, что фильтр может положительно влиять на индексацию, т. к. роботы видят, что сайт оптимизирован для пользователей. Стоит ли прописать в robots.txt Dissalow: *filter ?
  • Вопрос задан
  • 385 просмотров
Подписаться 2 Простой 2 комментария
Решения вопроса 1
pro100taa
@pro100taa
Где-то читал, что фильтр может положительно влиять на индексацию


Верно.

что сайт оптимизирован для пользователей.


не столько они смотрят, что сайт оптимизирован для пользователей, сколько это может дать значительный приток дополнительного трафика.

Идеально - доработать фильтры, чтобы они выдавали разные метатеги. Тогда Яндекс перестанет ругаться.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы