@zarabotok

Проблема с дублями google, решение проблемы?

На блоге 27 страниц добавлены в поиск. Яндекс пока нашел 19 .Тут все нормально, а вот гугол нашел 134 откуда столько и в чем проблема? Что я не закрыл в роботсе?
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */*/feed/*/
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /tag/
Disallow: /page/*
Disallow: /author/*
Disallow: /archives
Disallow: /step/.....
Disallow: /go
Disallow: attachment/
Disallow: /goto
Disallow: /category/*/*
Disallow: /wp-content/themes
Disallow: /wp-content/plugins
Disallow: /wp-content/languages
Disallow: /wp-content/cache
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments

Сам сайт: strofeyem.ru
  • Вопрос задан
  • 151 просмотр
Решения вопроса 1
XXX
@XXX
Решение где-то рядом
Тут все нормально, а вот гугол нашел 134 откуда столько и в чем проблема? Что я не закрыл в роботсе?
Просто гугл пока не убрал из выдачи страницы, которые Вы запретили индексировать в robots.txt. В основной выдаче этих страниц уже нет, их можно найти только в дополнительном индексе.

Инструкции из файла robots.txt для гугла носят рекомендательный характер, а не являются прямыми командами.
О файлах robots.txt
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы