Robots.txt. Фильтр по GET-параметрам?

Все запросы идут через index.php. Адреса имеют такой вид:
example.com/?c=controller&a=action&param=value

Можно ли запретить через robots.txt сканирование адресов с учетом GET-параметров?

Например, запретить все адреса, начинающиеся на example.com/?c=main&a=test (а дальше могут идти другие параметры).
  • Вопрос задан
  • 11682 просмотра
Решения вопроса 1
yakubovsky
@yakubovsky
User-agent: Yandex
Disallow: /add.php?*user=
# запрещает все скрипты 'add.php?' с параметром 'user'

Подробнее лучше тут почитать
help.yandex.ru/webmaster/?id=996567#996572
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
Можно запретить через HTTP заголовки(но лучше так не делать). Можно запретить через — так параметры к скрипту могут идти в любом порядке.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
19 февр. 2020, в 04:53
2000 руб./за проект
19 февр. 2020, в 02:24
500 руб./за проект
18 февр. 2020, в 23:53
8000 руб./за проект