Задать вопрос

Как научить поисковики не выдавать результаты с index.html, но всё же учитывать его при краулинге?

Есть такая обычная структура сайта. На нём установлен поиск по сайтам от гугла, но заходят и просто из поиска, конечно.

/index.html
/page1.html
/page2.html


Хочется запретить индексацию на этих страницах. То есть чтобы поисковик их видел, ходил по ссылкам, но при поиске людям их не выдавал (а выдавал страницы отдельных, полных статей). Соответственно robots.txt уже не годится, так ведь?

Проблема в том что такие страницы-посредники обнаруживаются в поиске, загромождая его и приводя к тому что перейдя по ссылке искомый контент не обнаруживается (содержимое на страницах пагинации меняется).

Что делают в таких случаях? Нужна совместимость со всеми мажорными плисковиками как минимум.
  • Вопрос задан
  • 3125 просмотров
Подписаться 3 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    1С-программист
    10 месяцев
    Далее
  • Skillbox
    Профессия 1C-разработчик
    8 месяцев
    Далее
  • Hi-TECH Academy
    KL 004.2.4 Kaspersky SD-WAN
    2 дня
    Далее
Решения вопроса 1
KEKSOV
@KEKSOV
Если кроме ссылок со страницы index.html на страницы с полезным контентом больше ничего не ведет, то нужно сделать sitemap и поместить эти ссылки туда, а index.html закрыть на индексирование.

Если нужно закрыть только часть страницы от индексирования, то воспользуйтесь тегом <noindex></noindex>
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
@WEBIVAN
meta name=«robots» content=«noindex,follow»
Ответ написан
Комментировать
charliez
@charliez
Все мажорные поисковики поддерживают карты сайтов sitemap.xml
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы