Какие способы существуют по отделению реальных пользователей от роботов, для статистики просмотра страниц?

Подскажите, может есть какие то решения на гитхабе или где еще в виде библиотек для PHP, которые могут подойти для отделения роботов от пользователей?
Высокой точности добиться я так понимаю нет возможности в принципе, но хоть какое то решение?
Естественно речь про не авторизованных пользователей.
  • Вопрос задан
  • 334 просмотра
Решения вопроса 1
nokimaro
@nokimaro
Меня невозможно остановить, если я смогу начать.
Если речь про легитимные боты, например поисковые то подойдёт эта библиотека
https://github.com/JayBizzle/Crawler-Detect

Общий принцип это смотреть на HTTP-заголовки, user-agent как минимум, но подделать можно что угодно.
Таких "умных" ботов можно вычислять только по поведенческим факторам, например отслеживать частоту запросов, находить определённые шаблоны в запросах и тд.
Например запросы когда загружается страница, но не идут следом запросы на загрузку ресурсов (картинок, стилей js и тд).

Можете посмотреть старенький доклад от 2ГИС про то как они защищаются от парсинга api
https://www.youtube.com/watch?v=pYxnW7kYcbU
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы