Ответы пользователя по тегу Google
  • Associative запросы в GSC - что они означают?

    vpetrov
    @vpetrov
    частный SEO-специалист
    По своим проектам не встречал, у меня только рунет. У вас есть ассоциированные учётки в других сервисах Google? Запросы, гипотетически, могут подтягиваться и оттуда, если GSC знает эти ассоциации.
    Ответ написан
    Комментировать
  • Почему Google назначает страницы с www каноническими?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Как уже сказали выше - настройте 301-й редирект с зеркал. Этого будет достаточно.
    А причины можно и отдельно поразбирать: скажем, на версии с www накопилось больше внешних или внутренних ссылок, пользовательских сигналов и т.п. Canonical - не приказ для роботов, а пожелание, и при ряде чисто технических моментов они могут игнорироваться.
    К слову: я бы ещё проверил, выводится ли Canonical в raw-html или это добавляется уже на уровне JS. Чисто из любопытства.
    Ответ написан
    Комментировать
  • Как создать аккаунт chrome без указания телефона?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Есть сервисы виртуальных номеров. Разовые. Получаешь подтверждающую CMS через сервис - процесс завершен.
    Номер второй раз использовать или застолбить за собой не получится, поэтому для дальнейших проблем к гугловскому аккаунту надо привязать какие-нибудь сторонние электропочты.
    Выбор стран там достаточно большой.
    Ответ написан
  • Как узнать когда страница сайта попала в индекс гугл?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Никак.
    Гугл нигде и никак не палит информацию, когда страницу нашёл, когда просканировал, когда и что внёс в индекс - и в какой. Индексов много, и они фактически независимы друг от друга.
    Доступный максимум - поднять серверные логи, найти посещение гуглобота, убедиться, что это действительно гуглобот, а не парсер конкурентов, представляющийся гуглоботом.
    Дальше - только интуиция.
    Ответ написан
  • Как заставить гугл проиндексировать страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Заставить Гугл? - Никак. Он технически не позволит реализовать многие хотелки.
    Исключение - серьёзный линкбилдинг, подклейка дропов, либо реальный всплеск интереса к бренду. Подчеркну: речь не об имитации работы со ссылками и пользовательскими сигналами, а об экстра-усилиях (и бюджетах).
    Попробуйте Indexing API. 200 страниц в сутки с одной учётки. Проблема в том, что в индекс страницы зайдут, но этого мало - и они не удержатся.
    Ответ написан
  • Как правильно указать мультиязычные страницы для google?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Речь идёт о метаданных. Поисковая система должна понимать, что у страницы есть версия на другом языке, для этого и нужна ссылка на альтернативную версию с заполненным hreflang (язык и страна).
    Переключалка языков в интерфейсе, по идее, может быть оформлена как угодно - это чисто пользовательская интерфейсная история, не для роботов.
    Ответ написан
    Комментировать
  • Как ускоренно добавить ссылки в поисковой выдаче Google?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Во-первых, 200 URL в сутки - это на одну учётку. Добавьте ещё учётки, если нужно заливать на объёмах.
    Во-вторых, нет никакого особого смысла заливать в индекс вообще всё. Если Гугл не увидит особой ценности этих страниц (а их, вероятно, и нету) – всё равно деиндексирует через какое-то время.
    Прокачивайте узловые страницы – контентом, ссылками. Будет естественный трафик – будет и индексирование, и положительная динамика. Поисковые системы сейчас не будут тратить ресурсы на обход и индексацию всего подряд без каких-то особых причин.
    Ответ написан
    Комментировать
  • Страницы сайта не попадают в индекс Google несколько месяцев. В чём причина?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Несколько исходных данных:
    • Поисковые системы - это по факту рекламные, коммерческие системы. Им неинтересно уже тратить ресурсы на сбор информации без какой-то выгоды для себя, а затраты там суровые.
    • Для оценки контента они используют вспомогательные сигналы - пользовательские, ссылочные и т.п.

    В общем, чтобы страница попала не просто в топ, а в выдачу вообще - надо эти самые сигналы обеспечить. Любыми средствами: покупка рекламы, привлечение трафика из соцсетей, поведенческие боты (да, это вроде как не одобряется), ссылки с серьёзных доноров.
    Технически - можно попробовать инструментарий типа Google Indexing API. С одной учетки можно загонять в индекс 200 страниц в сутки, процесс пары минут. У Яндекса есть аналог, но там обычно проблем технического плана нету пока.
    Основная проблема: если Гугл так и не увидит ценности страниц для индекса - выбросит, поэтому принудительная индексация не отменяет работы над созданием этих самых сигналов ценности страницы. Ну, и разумеется, надо дорабатывать контент, если есть проблемы. Чисто по заветам Елены Першиной ("делайте свой сайт лучше").
    Ответ написан
    1 комментарий
  • Как убрать ?no_redirect=true из ссылки в Google Search Console?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Canonical - это только рекомендация, и Гугл её динамит очень просто. Я бы попробовал выяснить, откуда вообще он выкопал ссылку с параметром и попытался её грохнуть. И выяснить, почему он не видит (или не признает) canonical - а это обычно какие-то сигналы важности на неканонический URL - скажем, те же ссылки.
    Многие вообще блокируют параметры такого рода на уровне robots.txt, что не самое красивое, но бывает что и единственное решение проблемы.
    Ответ написан
    5 комментариев
  • Почему индексируется страницы закрытые тегом robots и в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист
    robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
    Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
    Убирайте Disallow в robotx.txt, решайте вопрос метатегами.
    Ответ написан
    Комментировать
  • Как проверить все URL sitemap на наличие в идекса в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Можно взять Screaming Frog SEO Spider. Там есть коннектор к Search Console. Вытягиваем по API данные, сопоставляем с реальными данными по сайту. Профит.
    Ну или как уже сказано выше - просто выгружаете из консоли и в "Эксель" сопоставляете.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан
  • Почему сайт в гугле выдается по ссылке “http:// www. … .ru”?

    vpetrov
    @vpetrov
    частный SEO-специалист
    У вас не настроены редиректы (301) на основное зеркало?
    Настройте, добавьте canonical. Всё переклеится куда нужно через какое-то время.
    Ответ написан
    Комментировать
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Название товара в хлебных крошках?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Рассматривайте это звено как набор ключевых слов. Добавляют ли они что-то текстовой релевантности или просто дублируют заголовок и тайтл? Если нет - то звено лишнее.
    Тем более там не нужна кольцевая ссылка, ведущая на эту же страницу..
    Единственный вариант, при котором такое звено можно вывести на странице - если у вас в принципе нету товарной микроразметки, но есть микроразметка на "хлебных крошках". Толку там много не будет, но всё таки лишняя возможность для ПС понять, что страница - не полный дубль другой точно такой же.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать
  • Как алгоритмы Google могут определять реальное местоположение, несмотря на VPS?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Дело не в IP, а в фингерпринтах. Туда и советую копать.
    Ответ написан
    Комментировать
  • Почему гугл не индексирует новые записи?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Чтобы узнать точные причины, нужно проводить полноценный аудит. В общем же можно сказать следующее:
    а) Вы должны понимать, куда шли люди и по каким запросам. Вероятно, что-то трафиковое вывалилось за пределы кликабельности. Анализируйте данные Search Console и GA.
    б) Проверяйте серверные логи на визиты гуглобота. Велика вероятность, что он просто стал реде заходить, по каким-то причинам снизив лимиты на сканирование сайта. Причинами могут быть технические ошибки, недостаток положительных пользовательских сигналов, попадание под один из фильтров.
    В целом - есть общий тренд на снижение активности гуглобота в рамках рунета по вполне понятным причинам. Попробуйте использовать Google Indexing API для индексации новых страниц, это работает.
    Ответ написан
    5 комментариев
  • Как заставить Гугл проиндексировать сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист
    У вас сайт под фильтром за пиратство. Гугл не будет его индексировать, пока не решена эта проблема.
    Снимайте фильтр.
    Ответ написан
  • Страницы товаров и некоторых категорий не индексируются. В чем может быть проблема?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Весь 2021 год Гугл за пределами США очень сильно тормозит: ему явно не хватает ресурсов для обработки информации.
    Если он не получает сигналов о важности какого-то нового ресурса, то не поторопится и сканировать и индексировать его. Ждите. Если не хотите ждать – дайте на заданные URL трафик (рекламный, из соцсетей), поставьте ссылки с хорошо индексируемых ресурсов.
    Это обычная история, ничего страшного.
    Ответ написан
    Комментировать