Задать вопрос
@SvizzZzy

Как в robots.txt закрыть от индексации все ?get= запросы?

На одном самописном сайте используется чпу, поэтому там абсолютно нигде нету (?podobnyh=) запросов.
Но непонятно откуда начали появляться дубли вида: site.com/page/1/ == site.com?page=1 и тд
Решил убрать их из индексации через файл robots.txt и нашел такое решение:

Disallow: /*?*

Правильное ли оно?
  • Вопрос задан
  • 3365 просмотров
Подписаться 1 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Яндекс Практикум
    Инженер по тестированию
    5 месяцев
    Далее
  • Нетология
    Инженер по тестированию
    8 месяцев
    Далее
  • Stepik
    "Поколение Python": курс для начинающих
    1 неделя
    Далее
Решения вопроса 1
@SvizzZzy Автор вопроса
Так и не нашел инфу об этом...
Но проверил эту опцию в гугл и яндекс вебмастерах - всё работает как надо.
Вроде ок.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы