@master290988

Как закрыть от индексации адреса по кусочку URL в NGINX?

В гугл вебмастер постоянно вылезают адреса, которые закрыты в robots txt с формулировкой "Проиндексировано, несмотря на блокировку в файле robots.txt". При этом я не знаю откуда и где гугл их находит. При переходе на сайт по этому УРЛ выдается код 404. Поэтому мета тег роботс здесь не поможет.

Нашел еще один способ закрыть такие страницы, с помощью X-Robots-Tag "noindex". В мануале от гугл - есть инструкция, как закрыть с помощью X-Robots-Tag "noindex".

Там приводится для NGINX следующей код:
location ~* \.pdf$ {
  add_header X-Robots-Tag "noindex, nofollow";
}


В моем же случае, нужно закрыть по куску урл, например по /comment-subscriptions/ или srsrc=f
сами урл выглядит так МойСайт/comment-subscriptions/?srp=4337&srk=657373f2e83cc86f353bb10678e2c33d&sra=s&srsrc=f

Как подставить правильно кусок урл в код, вместо .pdf (как в примере)?
  • Вопрос задан
  • 2456 просмотров
Решения вопроса 1
@dodo512
location /comment-subscriptions/ {
    add_header X-Robots-Tag "noindex, nofollow" always;
}


location ~ \.php$ {
    if ($arg_srsrc = "f") {
        add_header X-Robots-Tag "noindex, nofollow" always;
    }
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы