@Cliffe
Дизайнер, веб разработчик

Гугл не хочет вносить в поиск страницы блога, что делать?

Доброго времени суток! В общем решил я как-то прикрутить блог на свой сайт. Проблема заключается в том, что Гугл наотрез не хочет вносить новые статьи в индекс *часть старых живут успешно ). Страницы блога в карте сайта видит, ошибки не находит - при ручном запросе на индексирование - вроде как пишет, что скоро все появится, но ничего не происходит. Тем временем в Яндексе все ок, все страницы успешно публикуются, довольно оперативно.

Рубрики - канонические. Сами статьи нет.

В robots.txt запретов никаких нет:
User-Agent: *
Host: https://cliffe.ru
Sitemap: далее ссылка на карту

Сам блог здесь: https://cliffe.ru/blog

61e86713d2f1f199880290.png

Товарищи знатоки, помогите советом пожалуйста. P.s. При нажатии на кнопку - проверить страницу на сайте - выходит следующее:
61e8685687661838729993.png
  • Вопрос задан
  • 263 просмотра
Пригласить эксперта
Ответы на вопрос 2
pro100taa
@pro100taa
1. Как давно отправили в индекс?

2. Некоторые статьи у вас вполне проиндексированы

3. На некоторых плагиат контента. Может быть стоит их все уникализировать?

4. И сайтмап так никто не делает. Вы выложили в роботсе аж 3 файла sitemp. У Вас WP. Добавьте плагин Yoast SEO и он сгенерирует правильный. Выложите в роботсе и вебмастерах одной ссылкой.
Ответ написан
Cttr
@Cttr
Инженер-программист, основатель Pricegg
Вне контекста вашего сайта: среди SEO специалистов наблюдается проблемы с индексированием в Google.
  • проблемы внутри Google;
  • в Google индексе достаточно информации, новое добавлять не спешит;
  • недостаточно ссылок на сайт (не забывайте как работает основная концепция цитирование);
  • недостаточное качество страниц;
  • технические проблемы на сайте.

У вас странная структура сайта: есть /blog, но сами статьи лежат от /. По количеству страниц в индексе похоже проиндексирована большая часть сайта.
  • site:cliffe.ru - 37 результатов;
  • site:cliffe.ru inurl:/blog - 2 результата.

Ваши действия:
  1. смотрите логи сервера, как часто ходит робот и дошёл ли он до нужных вам страниц;
  2. проверьте сайт любым анализатором;
  3. добавьте сайт в Ahrefs, там есть возможность подтвердить владение сайтом и пользоваться сервисом без ограничений, например запустить сканер, он подскажет ошибки;
  4. проверьте скорость сайта
  5. нарастите внешнюю ссылочную массу;
  6. исправьте вложенность статей, они должны быть в отдельном "директории" /blog
  7. проверьте совпадает ли контент на страницах намерениям пользователей
  8. можете написать мне по контактам если, вдруг, я не допонял ситуацию

Можете убрать Host из robots.txt, он уже не нужен.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы