Задать вопрос
@SvizzZzy

Как в robots.txt закрыть от индексации все ?get= запросы?

На одном самописном сайте используется чпу, поэтому там абсолютно нигде нету (?podobnyh=) запросов.
Но непонятно откуда начали появляться дубли вида: site.com/page/1/ == site.com?page=1 и тд
Решил убрать их из индексации через файл robots.txt и нашел такое решение:

Disallow: /*?*

Правильное ли оно?
  • Вопрос задан
  • 3181 просмотр
Подписаться 1 Оценить Комментировать
Решения вопроса 1
@SvizzZzy Автор вопроса
Так и не нашел инфу об этом...
Но проверил эту опцию в гугл и яндекс вебмастерах - всё работает как надо.
Вроде ок.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
Wanted. Санкт-Петербург
До 220 000 ₽
Wanted. Санкт-Петербург
До 150 000 ₽
ЛАНИТ Москва
от 120 000 ₽
18 дек. 2024, в 12:39
1000 руб./за проект
18 дек. 2024, в 12:37
10000 руб./за проект
18 дек. 2024, в 12:22
5000 руб./за проект