Anna_Polyakovich
@Anna_Polyakovich
Начинающий дизайнер, осваиваю html, css, js

Почему в Google Search Console не видно еще 13 страниц?

Здравствуйте! Помогите, пожалуйста, разобраться.
Всего на сайте 102 страницы.
Гугл проиндексировал 84 страницы, из них 5 не проиндексированны.
То есть он дает информацию о 89 страницах. Но остальные 13 нигде не показываются, и я даже не могу посмотреть, на каких страницах мне нужно исправлять что-то, чтобы они были проиндексированны.
Выглядит это вот так
6569a9dae5a4a625265200.png
6569a9e6656e3520865618.png
и еще не понятно, почему требует canonical, я же исправила и дописала под стилями вот эту строчку:
<link rel="canonical" href="https://адрес-сайта.ru/">

Помогите, пожалуйста, разобраться, как найти эти страницы и исправить их.
  • Вопрос задан
  • 79 просмотров
Решения вопроса 2
pro100taa
@pro100taa
Но остальные 13 нигде не показываются, и я даже не могу посмотреть, на каких страницах мне нужно исправлять что-то, чтобы они были проиндексированны.


Причин может быть миллион. От банального - не успел поисковик в индекс занести, до каких-нибудь ошибок или считает эти страницы малоценными. Может быть не настроена карта сайта или закрыты в robots.txt. Надо смотреть сам сайт, а еще лучше с доступом в SC.

Сделайте следующее. Возьмите урл каждой страницы и вручную загоните в SC. По ходу этого процесса гугл будет давать информацию об этих страницах: принимает их к индексации или нет. Если нет, то может сказать по какой причине.

Помогите, пожалуйста, разобраться, как найти эти страницы и исправить их.


Если вносили канониклы на сайт после добавления в SC, то изменения будут не сразу.
Ответ написан
@UthvfyV
вы уверены что непроиндексированные страницы существуют? Очень часто, а для некоторых причин неиндексации в большинстве случаев, непроиндексированные страницы не существуют. Пересмотрите, если есть, карту сайта, обновите её. Есть сервисы для создания карты сайта онлайн. Проверьте файл robots.txt. Если есть непроиндексированные страницы с причиной блокировки в robots.txt, сделайте пробный чистый robots. В смысле не пустой, а с записью только User-agent: *
Allow: /

Sitemap: ... sitemap.xml

Если ваш сайт на wordpress, то это скорей всего сео плагин создаёт корявые ссылки. Если указана причина Страница с переадресацией, то скорее всего этих страниц не существует. Вернее такая то страница допустим есть , но адрес к ней несуществующий. К примеру есть страница урл сайта/страница такая-то, а урл с причиной переадресации имеет урл урл сайта/категория такая-то/страница такая-то. Чтобы посмотреть непроиндексированные адреса нажмите на причину. И увидите список. Если вы убедитесь что эти урлы не существуют, то просто проигнорируйте это, всё равно вы причину не найдёте, больше чем уверен. "почему требует canonical". Потому что есть канонический адрес. Опять таки, если каноникал, с переадресацией, копия, проверьте на правильность неиндекированного урла. В большинстве случаев эти урлы несуществуют.
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
opium
@opium
Просто люблю качественно работать
Так откройте сайтмап в разделе нюнугл консоли он покажет какие не проиндексорованы
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы