Задать вопрос
ruvasik
@ruvasik
https://www.bryce.ru

Можно ли на уровне nginx блокировать ботов по частоте скачивания файлов?

Хотелось бы защитить сайт-каталог от спарсивания информации о продуктах ботами-парсерами.
Понятно, что по юзерагентам даже и делать не стоит (от слишком только больших дураков).
Мне вот интересно скорее такое полу интеллектуальное решение.
При обычных посещениях пользователь не ходит по страницам со скоростью 10 страниц в секунду, плюс он (точнее его браузер) загружает файлы (картинки, стили, js) которые относятся к текущей странице.
Вот мне и подумалось – можно ли как-то опираться на эти 2 факта?
То есть грубо говоря, если с айпишника идет скачка страниц с большой скоростью + файлы рандомно, то блокировать его.
При этом не заблокировав поисковые роботы)
Или это все пустая затея?
  • Вопрос задан
  • 2942 просмотра
Подписаться 2 Оценить Комментировать
Решения вопроса 1
tonymadbrain
@tonymadbrain
doam.ru
гуглите fail2ban
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 1
Wendor
@Wendor
nodejs developer / *nix admin
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы