В гугл вебмастер постоянно вылезают адреса, которые закрыты в robots txt с формулировкой "Проиндексировано, несмотря на блокировку в файле robots.txt". При этом я не знаю откуда и где гугл их находит. При переходе на сайт по этому УРЛ выдается код 404. Поэтому мета тег роботс здесь не поможет.
Нашел еще один способ закрыть такие страницы, с помощью X-Robots-Tag "noindex".
В мануале от гугл - есть инструкция, как закрыть с помощью X-Robots-Tag "noindex".
Там приводится для NGINX следующей код:
location ~* \.pdf$ {
add_header X-Robots-Tag "noindex, nofollow";
}
В моем же случае, нужно закрыть по куску урл, например по /comment-subscriptions/ или srsrc=f
сами урл выглядит так МойСайт/comment-subscriptions/?srp=4337&srk=657373f2e83cc86f353bb10678e2c33d&sra=s&srsrc=f
Как подставить правильно кусок урл в код, вместо .pdf (как в примере)?