Возникла мысль попрактиковаться и написать краулер. И тут возник вопрос - как сайт проверяют, человек или бот?
Расширю мысль. Я захожу на одну и ту же страницу из браузера и запуская свою поделку. Собственно говоря, он ничего не делает кроме:
session.visit 'url'
session.save_and_open_page
Если я захожу - все нормально, если бот - проиходит переадресация. User-Agent у него точно такой же как и у браузера. Я бы понял, если бы отсеивание произошло позже - трекинг курсора, время и т.д. Как нас различают?
P.S. RoR, Capybara + Poltergeist
Человек не может со столь точными промежутками времени и так долго подряд и так часто.
Плюс у человека JS.
Вы же на Ruby не запрашиваете через JS ничего.
Я бы посмотрел в сторону SlimerJS, PhantomJS.