@20strannik08

Как правильно закрывать от индексаций страницы для yandex?

Есть сайт мультиязычный, на 6и языках. Все языковые версии на одном домене. Решил для яндекса закрыть все буржуйские языки кроме русского.

В robots.txt прописал:
User-agent: Yandex
Disallow: */en/*
и т.д....

На всех буржуйских языках в html вставил:
<meta name="yandex" content="noindex, nofollow" />
Начал через вебмастер удалять буржуйские ссылки из индекса. Проходит уже 3й день, вижу что яндекс их по новой добавляет в индекс... (в результатах страницы так и торчат)

Подскажите пожалуйста что я делаю не так? Или мне с этим вопросом к яндексу лучше?

UPD. Добавлю что в вебмастере, правила на корректность robots.txt проверял, он сам пишет что все требуемые страницы запрещены к индексации. Метатег на нужных страницах указан один, исключительно для яндекса, потому конфликты исключены.
  • Вопрос задан
  • 181 просмотр
Пригласить эксперта
Ответы на вопрос 2
pro100taa
@pro100taa
Проходит уже 3й день


Подождите. Рано еще. Куда так торопитесь. Яндекс может robots.txt месяц обрабатывать. Можете ускорить если по префиксу удалите страницы в ЯВебмастере.
Ответ написан
vpetrov
@vpetrov
частный SEO-специалист, textarget.ru
Ну, во-первых, если запрещать сканирование в robots.txt, то яндексбот не узнает, что страничку индексировать не надо. Ему запрет скачивать её в robots.txt должен помешать. Если эти страницы уже в индексе - так ведь там и зависнут.
Во-вторых, я не понимаю смысла самой манипуляции. Там hreflang надо прописать правильно, закрывать ничего не нужно. То, что не получит трафика из Яндекса - он и сам деиндексирует за милую душу. На ранжировании русской версии не скажется.
Ну, и как выше совершенно справедливо отметили - 3 дня сейчас это вообще ни о чём. В 2022 Яндекс резко сократил ресурсы на обход и расчёты, плюс его колбасит привычно месяцами. так что не стоит спешить с выводами.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы