Артур Нуруллин: Собственно, я указал, что будут проблемы с быстродействием и постоянной долбежкой. Как вариант, запускать WebRequest с некоторым периодом, писать в базу на локальных сайтах. Периодически перезапускать, чтобы поддерживать актуальность данных. Если есть более интересные предложения - поделитесь.
atis //: А какой вам конкретно туториал нужен? Это не язык программирвания, не фреймворк, просто библиотека, тут не нужен пошаговый туториал, т к нечего изучать. Выбираете из примеров наиболее подходящий и адаптируете под ваши нужды.
Можно делать клиентские сайты с использованием серверных языков/технологий...ASP.NET, PHP, Ruby и пр, и обращаться к Web Api через через Curl, HttpWebRequest и пр... тогда поисковики будут видеть контент. Самым узким местом мне видится быстродействие, насколько сервер будет оперативно отдавать json сайтам-сателлитам, чтобы они не выглядели тормознутыми... Особенно, если сайтов будет много, а передаваемые объемы большие
Angel1: Проапдейтил ответ. Как я понимаю, требуется что-то наподобие PARTITION BY из MS SQL.
Т е найти последний обход за каждый день по каждому аккаунту (как я понимаю, таких обходов за день по этому аккаунту м б много), а потом присоединить по TIMESTAMP и account_id (На том допущении, что запросы по одному аккаунту в один день отличаются по времени хотя бы на 1 секунду)
Изначально правообладатель обязан попытаться урегулировать все это в досудебном порядке
Не обязан. На хабре писали про показательный случай на эту тему, когда представитель правообладателя сразу подал в суд, даже не пытаясь выйти на контакт. Перед судом от личного общения с ответчиком тоже уклонился. Конечная цель была не просто убирание контента, а деньги.
а так же сообщить, что срок рассмотрения составляет 30 дней
Ну тогда правообладатель точно разъярится, мало того, что воруют его контент, так еще и условия ставят, он ведь в данном случае не проситель. Ему даже в суд может не понадобится подавать, достаточно будет написать хостеру.