Для того чтобы запретить индексацию GET параметров в robots.txt файле, вы можете использовать директиву "Disallow" с символом "?" для указания наличия GET параметров в URL.
robots.txt:
User-agent: *
Disallow: /*?
Символ "?" обозначает начало GET параметров в URL.
Бонус:
Чтобы запретить все get параметры:
nginx conf:
server {
listen 80;
server_name example.com;
location / {
if ($args) {
return 403; # Запретить доступ к страницам с GET параметрами
}
# Ваша дальнейшая конфигурация для обработки запросов
}
}
Этот конфигурационный блок будет блокировать доступ к страницам с GET параметрами и возвращать ошибку 403 "Forbidden".
PS Не забудь ребунтнуть nginx
htaccess:
RewriteEngine On
RewriteCond %{QUERY_STRING} .+
RewriteRule ^(.*)$ $1? [R=301,L]
Этот блок будет перенаправлять любые URL с GET параметрами на тот же URL без параметров с кодом 301.