Задать вопрос

Какие способы существуют по отделению реальных пользователей от роботов, для статистики просмотра страниц?

Подскажите, может есть какие то решения на гитхабе или где еще в виде библиотек для PHP, которые могут подойти для отделения роботов от пользователей?
Высокой точности добиться я так понимаю нет возможности в принципе, но хоть какое то решение?
Естественно речь про не авторизованных пользователей.
  • Вопрос задан
  • 337 просмотров
Подписаться 4 Простой 1 комментарий
Помогут разобраться в теме Все курсы
  • Нетология
    Веб-разработчик с нуля: профессия с выбором специализации
    14 месяцев
    Далее
  • Skillfactory
    Профессия Веб-разработчик
    12 месяцев
    Далее
  • Яндекс Практикум
    Фулстек-разработчик
    16 месяцев
    Далее
Решения вопроса 1
nokimaro
@nokimaro
Меня невозможно остановить, если я смогу начать.
Если речь про легитимные боты, например поисковые то подойдёт эта библиотека
https://github.com/JayBizzle/Crawler-Detect

Общий принцип это смотреть на HTTP-заголовки, user-agent как минимум, но подделать можно что угодно.
Таких "умных" ботов можно вычислять только по поведенческим факторам, например отслеживать частоту запросов, находить определённые шаблоны в запросах и тд.
Например запросы когда загружается страница, но не идут следом запросы на загрузку ресурсов (картинок, стилей js и тд).

Можете посмотреть старенький доклад от 2ГИС про то как они защищаются от парсинга api
https://www.youtube.com/watch?v=pYxnW7kYcbU
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы