Задать вопрос
@Azami

Как правильно написать условие в robots.txt?

Добрый день, прошу помощи в следующем.
На сайте есть страницы в виде

/category/view/15
/category/view/15?status=1
/category/view/15?status=1&page=2

Как запретить роботам индексировать страницы /category/view/15?status=1, но при этом чтобы /category/view/15?status=1&page=2 и /category/view/15 индексировались?

Disallow: /category/view/*?status=1 не помогает, т.к. /category/view/15?status=1&page=2 тоже блокирует.

Спасибо
  • Вопрос задан
  • 64 просмотра
Подписаться 1 Простой Комментировать
Решения вопроса 1
igorux
@igorux
Disallow: /category/view/*?status=1
Allow: /category/view/*?status=1&page=2

Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом.

При конфликте между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow.
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
gobananas
@gobananas
finishhim.ru
Попробуйте
Disallow: /category/view/15?status=1&page=*
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы