Как защитить контент от копипасты и рерайта?

Суть вот в чём: я планирую открыть свой сайт с большим объёмом уникального контента.

1. Как заявить поисковикам, что я первым опубликовал свой контент на случай копипасты сторонними ресурсами? Вопрос может показаться глупым, но я знаю случаи, когда свежеоткрытый сайт полностью выкачивается и публикуется на Народе, которому Яндекс больше доверяет как своему сервису. В результате надо писать в абуз-команду и ждать разбирательств. Как избежать подобных ситуаций?

2. Можно ли как-то административно защитить свой контент от рерайта, и как вообще поисковики определяют чей текст лучше — оригинал или рерайт?

3. Существуют ли нефашистские методы борьбы с парсерами? То есть можно ли каким-либо образом отсеивать слишком быстрые переходы по страницам?
  • Вопрос задан
  • 3308 просмотров
Пригласить эксперта
Ответы на вопрос 10
lasthero
@lasthero
Создаете страницу с контентом, но не вывешиваете на неё ссылку на главную. Сообщаете гуглу о этой странице. Ждёте когда он проиндексирует его. Потом выставляете ссылку на морду.
Ответ написан
bubuq
@bubuq
Защитить никак, а хороший сайт все равно будет первее в поиске.
Ответ написан
Комментировать
printf
@printf
Ем детей.
От рерайта можно защитить статью, если никому ее не показывать. Если рерайт качественный (== сделан живым человеком, а не алгоритмом маркова), доказать, что это производная работа, затруднительно.

Про гугл lasthero правильно написал.

В борьбе с парсерами хороший, грамотный парсер всегда выиграет.
Ответ написан
Комментировать
tanoshii
@tanoshii
на сёрче был какой-то чувак, который продавал систему защиты контента, которая «реально работает!!11»
поищу тему, скину ссылку.

в целом, проблема защиты контента для меня выглядит нерешаемой)
ну т.е. на 100% никак не защитить. тем более, если тырить руками.
можно только:
1. добавлять новые странички ручками в яшу и гошу
2. делать так, чтобы яша и гоша приходили к тебе сами почаще (прописать периодичность обновления контента в роботс.тхт и на самом деле его часто обновлять :) )
3. если контент — новости — настроить постинг их в news.yandex.ru
4. делать так, чтобы на каждый новый материал появлялись внешние ссылки
Ответ написан
rtzra
@rtzra
Если это будет «сайт с большим объёмом уникального контента» с собственноручно написанными статьями, вам гораздо проще написать «размещение ссылки на оригинал обязательно» — пусть народ работает на раскрутку. И да, периодически гуглить и просить ставить ссылки.
Если же материал «творчески обработали» — никак не докажете (я думаю судиться по каждому материалу из большого объема просто нереально).
В конце концов, сеть — всего лишь средство для распространения информации. Вдруг ваш зайт загнется, а так останутся копии.

Интересно, как вы будете генерировать «большой объем уникального контента» :-)
Ответ написан
Комментировать
lolopolosko
@lolopolosko
А вы знаете как большинство веб-дизайнеров работает?
Когда я общался с одним из них, я спросил тот же вопрос что и вы. В ответ получил «Очень просто! Я свою работу отсылаю себе на почту и таким образом могу доказать что я первый ее сделал». Вот так-то!
Ответ написан
hayk
@hayk
1. Можно воспользоваться сервисами, которые делают снепшот страницы, например peeep.us.
Ответ написан
Комментировать
akalend
@akalend
программирую
У меня однажды срерайтили статью, это был какой-то доцент из Универа. Я написал на сайт, где были опубликовал их материалы, мы долго бодались… В результате я смирился. Доказать компиляцию оказалось трудно, все было скопипастчено творчески грамотно.
Ответ написан
Комментировать
grimich
@grimich
Не забудьте отметить лучший ответ как решение
Прошу прощения за некропостинг, однако есть еще способ: на каждый выкладываемый материал закупаются ссылки с анкорами — кусками текста из материала, например целиком на предложение или 4-5 идущих подряд слов.
Например, возьмем эту страницу, тогда будет выглядеть примерно так: Можно ли как-то административно защитить свой контент от рерайта, и как вообще поисковики определяют
Можно брать и бОльшие куски текста, чтобы покрыть 30-40% статьи. Тогда поисковик будет больший вес давать странице, и если ваш контент все таки кто нибудь стащит, то у последнего он врядли будет ранжироваться выше.
Плюс сейчас у яндекса появился сервис «Оригинальные тексты»: webmaster.yandex.ru/content/?service=ORIGINALS Правда работает он пока только для сайтов с ТИЦ > 10
Ответ написан
Комментировать
Rampages
@Rampages
Самый простой способ защитить большой объем уникального контента – не делиться им ни с кем. Не афишировать его, не упоминать о нём всуе и т.д. и т.п.

Да, в настоящее время сайты очень зависят от поисковых систем, но не надо делать всякие извращения лишь бы вылезти на первые полосы поисковой выдачи. Если контент действительно стоящий, не надо усложнять к нему доступ, наоборот – чем доступнее он будет, тем чаще будут приходить именно на вашу страницу, а не на страницу с рерайтом/копией. а всякие шаманства SEO для защиты от копирования при помощи запрета выделения текста через javascript или извращения со вставкой непонятных кусков текста в код страницы (да да, бывает что вставляют какие-нибудь буквы белого цвета на белом фоне куда-нибудь под footer.)
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы