Как научить поисковики не выдавать результаты с index.html, но всё же учитывать его при краулинге?

Есть такая обычная структура сайта. На нём установлен поиск по сайтам от гугла, но заходят и просто из поиска, конечно.

/index.html
/page1.html
/page2.html


Хочется запретить индексацию на этих страницах. То есть чтобы поисковик их видел, ходил по ссылкам, но при поиске людям их не выдавал (а выдавал страницы отдельных, полных статей). Соответственно robots.txt уже не годится, так ведь?

Проблема в том что такие страницы-посредники обнаруживаются в поиске, загромождая его и приводя к тому что перейдя по ссылке искомый контент не обнаруживается (содержимое на страницах пагинации меняется).

Что делают в таких случаях? Нужна совместимость со всеми мажорными плисковиками как минимум.
  • Вопрос задан
  • 3121 просмотр
Решения вопроса 1
KEKSOV
@KEKSOV
Если кроме ссылок со страницы index.html на страницы с полезным контентом больше ничего не ведет, то нужно сделать sitemap и поместить эти ссылки туда, а index.html закрыть на индексирование.

Если нужно закрыть только часть страницы от индексирования, то воспользуйтесь тегом <noindex></noindex>
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
@WEBIVAN
meta name=«robots» content=«noindex,follow»
Ответ написан
Комментировать
charliez
@charliez
Все мажорные поисковики поддерживают карты сайтов sitemap.xml
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы