Ответы пользователя по тегу Google
  • Как заставить гугл проиндексировать страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Заставить Гугл? - Никак. Он технически не позволит реализовать многие хотелки.
    Исключение - серьёзный линкбилдинг, подклейка дропов, либо реальный всплеск интереса к бренду. Подчеркну: речь не об имитации работы со ссылками и пользовательскими сигналами, а об экстра-усилиях (и бюджетах).
    Попробуйте Indexing API. 200 страниц в сутки с одной учётки. Проблема в том, что в индекс страницы зайдут, но этого мало - и они не удержатся.
    Ответ написан
  • Как правильно указать мультиязычные страницы для google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Речь идёт о метаданных. Поисковая система должна понимать, что у страницы есть версия на другом языке, для этого и нужна ссылка на альтернативную версию с заполненным hreflang (язык и страна).
    Переключалка языков в интерфейсе, по идее, может быть оформлена как угодно - это чисто пользовательская интерфейсная история, не для роботов.
    Ответ написан
    Комментировать
  • Как ускоренно добавить ссылки в поисковой выдаче Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Во-первых, 200 URL в сутки - это на одну учётку. Добавьте ещё учётки, если нужно заливать на объёмах.
    Во-вторых, нет никакого особого смысла заливать в индекс вообще всё. Если Гугл не увидит особой ценности этих страниц (а их, вероятно, и нету) – всё равно деиндексирует через какое-то время.
    Прокачивайте узловые страницы – контентом, ссылками. Будет естественный трафик – будет и индексирование, и положительная динамика. Поисковые системы сейчас не будут тратить ресурсы на обход и индексацию всего подряд без каких-то особых причин.
    Ответ написан
    Комментировать
  • Страницы сайта не попадают в индекс Google несколько месяцев. В чём причина?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Несколько исходных данных:
    • Поисковые системы - это по факту рекламные, коммерческие системы. Им неинтересно уже тратить ресурсы на сбор информации без какой-то выгоды для себя, а затраты там суровые.
    • Для оценки контента они используют вспомогательные сигналы - пользовательские, ссылочные и т.п.

    В общем, чтобы страница попала не просто в топ, а в выдачу вообще - надо эти самые сигналы обеспечить. Любыми средствами: покупка рекламы, привлечение трафика из соцсетей, поведенческие боты (да, это вроде как не одобряется), ссылки с серьёзных доноров.
    Технически - можно попробовать инструментарий типа Google Indexing API. С одной учетки можно загонять в индекс 200 страниц в сутки, процесс пары минут. У Яндекса есть аналог, но там обычно проблем технического плана нету пока.
    Основная проблема: если Гугл так и не увидит ценности страниц для индекса - выбросит, поэтому принудительная индексация не отменяет работы над созданием этих самых сигналов ценности страницы. Ну, и разумеется, надо дорабатывать контент, если есть проблемы. Чисто по заветам Елены Першиной ("делайте свой сайт лучше").
    Ответ написан
    1 комментарий
  • Как убрать ?no_redirect=true из ссылки в Google Search Console?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Canonical - это только рекомендация, и Гугл её динамит очень просто. Я бы попробовал выяснить, откуда вообще он выкопал ссылку с параметром и попытался её грохнуть. И выяснить, почему он не видит (или не признает) canonical - а это обычно какие-то сигналы важности на неканонический URL - скажем, те же ссылки.
    Многие вообще блокируют параметры такого рода на уровне robots.txt, что не самое красивое, но бывает что и единственное решение проблемы.
    Ответ написан
    5 комментариев
  • Почему индексируется страницы закрытые тегом robots и в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
    Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
    Убирайте Disallow в robotx.txt, решайте вопрос метатегами.
    Ответ написан
    Комментировать
  • Как проверить все URL sitemap на наличие в идекса в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Можно взять Screaming Frog SEO Spider. Там есть коннектор к Search Console. Вытягиваем по API данные, сопоставляем с реальными данными по сайту. Профит.
    Ну или как уже сказано выше - просто выгружаете из консоли и в "Эксель" сопоставляете.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан
  • Почему сайт в гугле выдается по ссылке “http:// www. … .ru”?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    У вас не настроены редиректы (301) на основное зеркало?
    Настройте, добавьте canonical. Всё переклеится куда нужно через какое-то время.
    Ответ написан
    Комментировать
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Название товара в хлебных крошках?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Рассматривайте это звено как набор ключевых слов. Добавляют ли они что-то текстовой релевантности или просто дублируют заголовок и тайтл? Если нет - то звено лишнее.
    Тем более там не нужна кольцевая ссылка, ведущая на эту же страницу..
    Единственный вариант, при котором такое звено можно вывести на странице - если у вас в принципе нету товарной микроразметки, но есть микроразметка на "хлебных крошках". Толку там много не будет, но всё таки лишняя возможность для ПС понять, что страница - не полный дубль другой точно такой же.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать
  • Как алгоритмы Google могут определять реальное местоположение, несмотря на VPS?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Дело не в IP, а в фингерпринтах. Туда и советую копать.
    Ответ написан
    Комментировать
  • Почему гугл не индексирует новые записи?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Чтобы узнать точные причины, нужно проводить полноценный аудит. В общем же можно сказать следующее:
    а) Вы должны понимать, куда шли люди и по каким запросам. Вероятно, что-то трафиковое вывалилось за пределы кликабельности. Анализируйте данные Search Console и GA.
    б) Проверяйте серверные логи на визиты гуглобота. Велика вероятность, что он просто стал реде заходить, по каким-то причинам снизив лимиты на сканирование сайта. Причинами могут быть технические ошибки, недостаток положительных пользовательских сигналов, попадание под один из фильтров.
    В целом - есть общий тренд на снижение активности гуглобота в рамках рунета по вполне понятным причинам. Попробуйте использовать Google Indexing API для индексации новых страниц, это работает.
    Ответ написан
    5 комментариев
  • Как заставить Гугл проиндексировать сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    У вас сайт под фильтром за пиратство. Гугл не будет его индексировать, пока не решена эта проблема.
    Снимайте фильтр.
    Ответ написан
  • Страницы товаров и некоторых категорий не индексируются. В чем может быть проблема?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Весь 2021 год Гугл за пределами США очень сильно тормозит: ему явно не хватает ресурсов для обработки информации.
    Если он не получает сигналов о важности какого-то нового ресурса, то не поторопится и сканировать и индексировать его. Ждите. Если не хотите ждать – дайте на заданные URL трафик (рекламный, из соцсетей), поставьте ссылки с хорошо индексируемых ресурсов.
    Это обычная история, ничего страшного.
    Ответ написан
    Комментировать
  • Нормальны ли такие перепады трафика?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    От тематики зависит, характера трафика (b2b-b2c), источника - если речь о Яндекс, то там такие перепады скорее норма, особенно в конкурентных тематиках или где "многорукий бандит" особенно активен и в выдачу постоянно подмешиваются всё новые сайты.
    Мало данных.
    Ответ написан
    Комментировать
  • Насколько эти предупреждения от гугла серьезны?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Товарная микроразметка не заполнена в должном объёме.
    На что повлияет? – Ни на что. Микроразметка - не фактор ранжирования, и может использоваться в каких-то объёмах для формирования сниппета на выдаче. А может и не использоваться.
    На практике я ни разу не сталкивался с тем, чтобы устранение такого рода проблем как-то влияло на позиции, тем более - речь об отдельных товарных карточках. Если есть ресурсы - можно и устранить.
    Ответ написан