Задать вопрос

Настройка robots.txt для умного фильтра каталога?

Может у кого есть решение по настройке файла robots.txt для фильтра каталога.

Чтобы не индексировались все возможные выводы страниц фильтра в файле robots прописал:
Disallow: /catalog/*/filter/*

Убираю от индексирование все урл с параметрами:
Disallow: /*?

Есть страница фильтра со своими мета данными, например:
/catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/

Чтобы она индексировалась прописываю:
Allow: /catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/

Но почему то все равно индексируется страница с параметрами:
/catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/?display=block
/catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/?PAGEN_1=3

Как от этого избавиться?

Помогает только:
Disallow: /catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/?*

Но прописывать для каждого фильтра слишком объемно получается...
  • Вопрос задан
  • 1039 просмотров
Подписаться 2 Средний 1 комментарий
Пригласить эксперта
Ответы на вопрос 2
@Kipeer
SEO
На страницах с гет-параметрами:
/catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/?display=block
/catalog/kirpich-v-stile-loft/filter/tcvet-is-red/apply/?PAGEN_1=3

Пропишите <meta name="robots" content="noindex, follow">

Файл robots.txt носит рекомендательный характер для поисковиков, а <meta name="robots" content="noindex, follow"> строгая директива.
Ответ написан
@kazankin Автор вопроса
Да уж, вот тебе и сервис, один ответ и то другой способ!!!
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы