Задать вопрос
Semisonic
@Semisonic
Разработчик, выдумщик, неравнодушный человек

Какие могут быть методы защиты публикуемых на сайте данных от кражи?

Предположим, у меня есть некий онлайн-ресурс наподобие справочника. Этот ресурс стимулирует (в том числе материально) своих пользователей вводить определённые данные, которые он потом показывает всем остальным пользователям, имея некий профит на рекламе и иных средствах монетизации.

Опять же, предположим, что в один прекрасный день появляется конкурирующий онлайн-ресурс, пытающийся делать то же самое. Но вместо сбора данных своими силами он предпочитает украсть их полностью с моего ресурса, тем самым сэкономив на процедуре сбора и валидации данных от пользователей.

Вопрос: есть ли на сегодняшний день действенные способы борьбы с подобного рода действиями? Интересуют как технические, так и юридические методы.

Спасибо.
  • Вопрос задан
  • 2875 просмотров
Подписаться 6 Оценить Комментировать
Пригласить эксперта
Ответы на вопрос 6
@furyk
Заранее оптимизировать сайт для поисковиков, чтобы конкурент не поднялся в результатах поиска выше вас.

Если найдутся желающие, то информацию скопировать им удастся в любом случае, как бы вы не сопротивлялись.

Так что лучше забить на все эти методы и сконцентрироваться на том, чтобы сделать ваш собственный сайт интересным и часто обновляемым.

Тогда даже если вы потеряете часть посетителей из-за скопированного сайта, в этом не будет ничего страшного.
Ответ написан
@werdender
Технических методов можно сказать что нет.
По юридической части некомпетентен.
Ответ написан
Комментировать
dasm32
@dasm32
Действенных технических методов кроме watermark-ов действительно не наблюдал.
А так — попробуйте взять любую топ-статью отсюда и погуглите ее точные фразы ;)
Ответ написан
Комментировать
@Vampiro
Отключение от Интернета не предлагать? (99% способ, кстати)
На картинках пишут поперек изображения.
С текстом можно потестить варианты замены кириллицы латиницей, но это если потом по судам бегать захотите. Хотя в рф с этим сложно пока еще.
Ответ написан
Zibx
@Zibx
Добавлять информацию как и раньше, но начинать её отображать в момент захода поискового бота. Во всяком случае тогда контент будет считаться оригинальным. Поисковых систем у нас много, потому надо выбрать одну приоритетную.
Ответ написан
Комментировать
5ap
@5ap
технически сложно отпарсить большие объёмы в короткий срок, по крайне мере неподготовленый ресурс можно завалить. Да и врятли юзеры запрашивают страницы чаще чем N времени.
Строится анализ запросов на ресурс, подгоняются распределения по geo, useragent (в часности отдельно ос и браузер), потом строятся математические ожидания, кстатии хорошо их сделать адаптивными с вкладом определённых рисков в эти самые адаптации.
Потом защита страницей лока с текстом как в контакте часто было — по типу часто страницы спрашиваете.
Алгоритмы лока можно почитать в сторону ддоса. Только ддос лочится более грубо, а в случае детекта парсинга сайта нужна более тонкая настройка.
Публичные парсеры понимают что нельзя сразу всё парсить и парся по-чучуть. Также можно парсить ацесс логи и делать лукапы ипишников и их владельцев, добавить публичные крвалеры в вайт листы.
По детекту украденого контента можно почитать в сторону стеганографии. Или проще можно поюзать сервисы по поиску уникального контента.

Вобщем можно выдумывать очень много, главное понимать что цена взлома должна быть дороже чем реализация своего и к идеалу не следует стремится. Так например если сделать деньгу 1$ усилиями в 0.9$ то подделывать выгодно, а если сделать за 10$ то это реально и не отличишь никак от оригинала, но вот целесообразность теряется.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы