Если я получаю ip адреса посетителей сайта, баннера, и буду их после сортировать,
то в данном случае, если заходить на сайт через прокси браузера, как плагина, увижу тот ip, который у меня показывают сайты searchMyIp и т.п.?
Если у большинства пользователей нет статического ip, часть пользуются прокси и vpn,
в этом случае мне нужно создавать списки бесплатных прокси?, например тех, что в плагинах браузеров,
и их помечать после.
но в данном случае мне геолокацию вручную нужно просматривать? или довольствоваться плагином, который покажет место ip?
И также получается будут списки пулов интернет-провайдеров, через который провайдер в этой локации раздаёт домашний интернет?
Я увижу что на сайт заходит условно 100 человек с одного ip по локации, тогда нужно отсеивать пользователей по кликам страниц и времени пребывания, их профилю реальной активности, а не робота?
Я увижу что на сайт заходит условно 100 человек с одного ip по локации, тогда нужно отсеивать пользователей по кликам страниц и времени пребывания, их профилю реальной активности, а не робота?
А что собственно Вы хотите увидеть? И что посчитать?
Давайте каждому пользователю куку, по количеству кук будет видно реальных посетителей. Ну и дополнительно собирайте информацию о хедерах браузера (UserAgent).
IP-адреса говорят только очень приблизительное местоположение пользователя, максимум - город...
Вот например, у меня VPS есть с VPN. Когда я иду через него, все сайты говорят "Чувак, привет, как там в Риге?" хотя на самом деле я за пол-России от Риги, да и VPS вовсе не в Риге :) Геолокация - она такая геолокация :)
Думаю, что большинство юзеров использует максимум прокси плагин в браузере,
речь больше идёт об отсеивании реальных юзеров от ботов и защиты от атак,
есть конечно системы на базе Device Fingerprinting, IP Reputation и др., но это более глубокий подход, для этого нужна сеть разных сайтов,
пока остановился на cookies, заголовках, WebSockets, ip check, клиент, сервер, списках