Задать вопрос
@SvizzZzy

Как в robots.txt закрыть от индексации все ?get= запросы?

На одном самописном сайте используется чпу, поэтому там абсолютно нигде нету (?podobnyh=) запросов.
Но непонятно откуда начали появляться дубли вида: site.com/page/1/ == site.com?page=1 и тд
Решил убрать их из индексации через файл robots.txt и нашел такое решение:

Disallow: /*?*

Правильное ли оно?
  • Вопрос задан
  • 3359 просмотров
Подписаться 1 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Яндекс Практикум
    Python-разработчик
    10 месяцев
    Далее
  • Skillfactory
    DevOps-инженер
    6 месяцев
    Далее
  • Хекслет
    Фронтенд-разработчик
    10 месяцев
    Далее
  • SF Education
    Бэкенд-разработчик на Python
    3 месяца
    Далее
  • Stepik
    Backend разработка
    4 недели
    Далее
  • Merion Academy
    Python программист с нуля
    4 месяца
    Далее
  • Skypro
    Frontend-разработчик с нуля
    9 месяцев
    Далее
  • Нетология
    Python-разработчик с нуля
    6 месяцев
    Далее
Решения вопроса 1
@SvizzZzy Автор вопроса
Так и не нашел инфу об этом...
Но проверил эту опцию в гугл и яндекс вебмастерах - всё работает как надо.
Вроде ок.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы