@SvizzZzy

Как в robots.txt закрыть от индексации все ?get= запросы?

На одном самописном сайте используется чпу, поэтому там абсолютно нигде нету (?podobnyh=) запросов.
Но непонятно откуда начали появляться дубли вида: site.com/page/1/ == site.com?page=1 и тд
Решил убрать их из индексации через файл robots.txt и нашел такое решение:

Disallow: /*?*

Правильное ли оно?
  • Вопрос задан
  • 2927 просмотров
Решения вопроса 1
@SvizzZzy Автор вопроса
Так и не нашел инфу об этом...
Но проверил эту опцию в гугл и яндекс вебмастерах - всё работает как надо.
Вроде ок.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы