Задать вопрос
@IvanovIvanIvanych

Закрытие страницы site.ru/uslugi/ от индексации, без закрытия страниц /uslugi/1/, uslugi/2/ и т.д. в robots.txt?

Доброго времени суток. Подскажите пожалуйста, если в robots.txt пропишу следующие строки:
Disallow: /uslugi/
Allow: /uslugi/*

Перестанут ли поисковые роботы яндекса и гугла индексировать одну лишь страницу site.ru/uslugi/ и она покинет результаты поиска, при том что все остальные страницы (например site.ru/uslugi/montaj/) продолжат индексироваться и из поиска никуда не денутся?
  • Вопрос задан
  • 49 просмотров
Подписаться 1 Простой 3 комментария
Решения вопроса 1
vpetrov
@vpetrov
частный SEO-специалист
Не так это делается. Достаточно вот такой формулы:
Disallow: /uslugi/$
URL, содержащие какие-то знаки после /uslugi/ - будут сканироваться.
И да, у вас глобальная ошибка с пониманием назначения robots.txt. Он запрещает и разрешает сканирование, а не индексацию. Если хотите запретить индексацию - используйте метатеги и канонические адреса.
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы