@PendalF89

Как правильно настроить NGINX, чтобы не заблокировать поисковых роботов?

Здравствуйте!
Настраиваю Nginx чтобы избежать примитивных DDoS-атак, но при этом не хочу случайно заблокировать поисковых роботов. Сейчас настроено так:

http {
	limit_req_zone $binary_remote_addr zone=one:10m rate=10r/s;
	# ...
	server {
	    location / {
	        limit_req zone=one burst=20 nodelay;
	        # ...
	    }
	}
}


При текущей конфигурации с 1 ip адреса может быть до 10 запросов в секунду с интвервалом в 100мс на каждый запрос. При этом, может быть единовременный "всплеск" до 20 одномоментных запросов, после чего каждый новый запрос так же будет обрабатываться с интервалом в 100мс.

Достаточно ли такой конфигурации, чтобы не забанить поисковых роботов Google и Яндекс?
  • Вопрос задан
  • 208 просмотров
Пригласить эксперта
Ответы на вопрос 1
ky0
@ky0 Куратор тега Nginx
Миллиардер, филантроп, патологический лгун
В robots.txt можно указать лимиты на частоту запросов - кто это не учитывает, тот сам виноват.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы