Задать вопрос
@Sreu34

Почему продолжает индексироваться сайт?

Нужно закрыть сайт от индексации, прописал в robots.txt нужную запись, плюс поставил <meta name="robots" content="none"> на главной странице сайта, но проверка в онлайн сервисах показывает что он по прежнему индексируется
  • Вопрос задан
  • 262 просмотра
Подписаться 2 Простой 3 комментария
Пригласить эксперта
Ответы на вопрос 6
vpetrov
@vpetrov
частный SEO-специалист
Сколько путаницы.
Чтобы деиндексировать сайт, правильнее всего всем страницам присвоить мета "robots" со значением noindex.
Мгновенного результата это не даст. Впрочем, мгновенного результата это не даст при любом способе.
В robots.txt вы прописываете запрет на сканирование - что вовсе не равнозначно запрету на индексирование. В выдаче достаточно сайтов, сниппеты с которых не выводятся: скачивать странички запрещено директивами robots.txt. А ссылки в выдаче - есть. И даже в топах. Потому что даже если там есть мета с запретом на индексирование, ПС об этом узнать не могут - поскольку сканировать/скачивать страницу им нельзя.
Помимо мета рекомендую воспользоваться инструментарием Яндекс-Вебмастер и Search Console. Там есть инструменты, позволяющие напрямую запросить удаление из индекса ненужного контента.
6488bafe29da1126898913.jpeg
И имейте в виду, что все эти меры в принципе ничего не гарантируют. Это лишь пожелания, не приказы. А тот же гуглобот по деиндексированным и удаленным URL может потом ходить годами. Зачем – не знаю.
Ответ написан
Комментировать
dimonchik2013
@dimonchik2013
non progredi est regredi
проверка в онлайн сервисах показывает

это несерьезно

должны логи "показывать"

но в целом все верно: робот не ходит "на главную и дальше", робот ходит по сохраненным и с них

так что, думаю, ничего вы, кроме главной, индексировать не запретили
Ответ написан
Комментировать
закройте от индексации все страницы и сам домен в вебмастере Яндекса/Гугла и т.п.
Ответ написан
Комментировать
@AUser0
Чем больше знаю, тем лучше понимаю, как мало знаю.
Если хотите мгновенный результат - анализируйте User-Agent пришедшего клиента, отвечайте HTTP кодом 403 или 404.

А онлайн сервисы, показывающие "сайт индексируется" - от самих Гуглов/Яндексов, или посторонние какие-то сайты, которые могут свистеть что угодно?
Ответ написан
Комментировать
Tikson
@Tikson
1) исключить старицы из sitemap.xml (это рекомендации для поисковиков для индексации)
2) прописать метатеги noindex и nofollow
3) запретить страницы в robots txt (это рекомендации для поисковиков для индексации или для исключения из индексации)
4) проверить сайт на дубли и ошибки. Тут сложно сказать, нужно смотреть по ситуации. Возможно страница или её дубли уже про индексировалась и страница уже известна поисковикам - если так, то просто подождать переиндексации.
Ответ написан
Комментировать
@lotse8
Если есть внешние ссылки на Ваш сайт, то ничего не поможет.
Если таких ссылок нет, то:
1) robot.txt
User-agent: *
Disallow: /
2) Добавьте метатег в HTML-код страниц сразу после
<html><head>
<meta name="robots" content="noindex">
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
22 дек. 2024, в 13:01
50000 руб./за проект
22 дек. 2024, в 10:44
15000 руб./за проект
22 дек. 2024, в 10:12
10000 руб./за проект