Все сервисы Хабра
Сообщество IT-специалистов
Ответы на любые вопросы об IT
Профессиональное развитие в IT
Закрыть
Задать вопрос
Дмитрий
0
вклад
1
вопрос
1
ответ
0%
решений
Комментарии
Информация
Ответы
Вопросы
Комментарии
Подписки
Нравится
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
Vladimir Kiper
, прошло 5 дней, и там где через роботс делал сразу есть результат, удалено 25% старниц из индекса фильтры с параметрами не нужными! Ура!
Написано
более трёх лет назад
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
Vladimir Kiper
, попробую два метода на разных сайтах, посмотрим что получится, обязательно напишу результат! Спасибо за ответ!
Написано
более трёх лет назад
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
Оказывается все очень просто, необходимо в конце поставить $
$ — показывает, что символ перед ним должен быть последним
т.д. вот так
Disallow: */filter/*
Disallow: */filter/clear/apply/*
Allow: */klinkernaya-plitka/filter/brand-is-feldhaus/apply/$
и не будет
/catalog/klinkernaya-plitka/filter/brand-is-feldhaus/apply/?display=table
а вот так будет индексироваться
/catalog/klinkernaya-plitka/filter/brand-is-feldhaus/apply/
Написано
более трёх лет назад
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
Vladimir Kiper
, но не ужели нет правил в роботс, чтобы не писать отдельно под это код?
Написано
более трёх лет назад
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
Vladimir Kiper
, теперь понятнее, спасибо!
Написано
более трёх лет назад
Настройка robots.txt для умного фильтра каталога?
Дмитрий
@kazankin
Автор вопроса
А если у меня таких страниц 100?
Что мне каждый параметр учитывать и исключать?
Написано
более трёх лет назад
Войдите на сайт
Чтобы задать вопрос и получить на него квалифицированный ответ.
Войти через центр авторизации
Закрыть
Реклама