• Как продвигать каталог товаров (SEO) в котором товары периодически обновляются - какие то уходят, какие то приходят?

    Антон Р., тут не только маркетинг. Товарные карточки - это релевантность категории. Нет вхождений в анкорах - нету соответствия запросу.
    Тут либо форму "уведомить о поступлении" интегрировать, либо просто "нет в наличии, посмотрите ватета". То, что в админке есть - на сайт не работает. А просто так убирать трафиковые странички - сайт просядет в поиске однозначно. Тогда уж хоть как-то лид не потерять.
  • Скачут позиции сайта, как быть?

    fafa061991, это текстовый анализатор "Мегаиндекса". Можно использовать любой другой, который работает с корпусами Яндекса и текстовыми зонами (тот же Just-Magic).
    Мегаиндексовый хорош тем, что анализирует не только вхождения, но и векторы плюс читабельность. Хорошие показатели - это релевантность от 95%.
  • Скачут позиции сайта, как быть?

    fafa061991, я бы в первую очередь вот сюда копал (см. скриншот). То есть гипотеза с недостаточной текстовой и структурной релевантностью скорее всего очень близка к истине.
    63625f5ac6e1f520637617.png
  • Скачут позиции сайта, как быть?

    fafa061991, в списке-то они есть как пример. И такие запросы будут скакать фактически неизбежно, если речь не о сайтах типа "пикабу", "авито" и прочие википедии.
  • Как заставить Гугл проиндексировать сайт?

    V Melnik, Гугл в принципе очень неторопливый, и экономит ресурсы на сканирование веб и расчёты основных метрик. Чтобы он что-то делал, тем более - не жалея ресурсов, ему нужны дополнительные сигналы о ценности того или иного ресурса.
    Ссылки и пользовательские сигналы - как раз то, что нужно.
    С "Сапой" порядок, арендные ссылки вполне себе могут сработать - просто не надо брать совсем завалящие домены для аренды ссылок, нужны такие, где Гугл эти ссылки в принципе вовремя увидит и учтёт. Арендовать их надолго тоже смысла нет - ну, квартала, по идее, должно быть достаточно. Ссылки из соцсетей, куда гуглобот заходит, тоже годятся.
    Хрумер и его аналоги - почему нет? Тут всё решают базы. Меньше мусора в списке доноров - выше шансы.
    Факт, что молодой хост без истории и определенной тематики, без набранных пользовательских метрик может болтаться в "песочнице" с годик, и траф получать - только по мНЧ и НЧ. Обе ПС перешли в режим жёсткой экономии ресурсов, и их ещё надо убедить, что сайт кому-то нужен и важен.
    Я бы сказал, что проблема в таком виде выглядит куда меньшей, чем реальны фильтры и санкции за что-то. Надо просто подождать и вложить немного ресурсов в хост.
  • Как заставить Гугл проиндексировать сайт?

    V Melnik, тогда всё ещё интереснее, если речь не о полноценном переезде, а старый домен уже имел другого владельца. Посмотрел новый домен. Ему
    а) всего месяц после второй регистрации. Для Гугла это слишком мало, чтобы вообще что-то индексировать всерьёз.
    б) Вы - не первый владелец. Что там было раньше? Вы историю проверяли? Домен может быть зафильтрован (хотя думаю, вы пока просто торопитесь с ожиданием результатов).
    Попробуйте настроить Google Indexing API и запулить сайт через него. Ну, и трафик на сайт надо дать, или хотя бы ссылочным обеспечить.
  • Как заставить Гугл проиндексировать сайт?

    V Melnik, речь не про уникальность контента, а про DMCA. Вы лучше скажите, на что такую жалобу могли кинуть - на какой контент? И что случилось со старым доменом? Я в принципе в первый раз увидел такой ответ сервера вживую. Кроме того, непонятно, как вообще настроен переезд на новый домен, если он был настроен.
    Техподдержка Гугла не отвечает за индексацию, это алгоритмическое. Что-то ответить вам могут только по поводу "ручника" ("Меры, принятые вручную"). С учётом происходящего в мире ждать ответа от техподдержки можно долго, и не факт, что сподобятся ответить.
  • Как заставить Гугл проиндексировать сайт?

    У вас старый домен блокнут за пиратство. Не знаю, настраивали ли вы переезд, или Гугл сам определил, что речь о заблокированном сайте, но факт - я бы именно этот вопрос подробнейше разобрал в первую очередь.
    Подробности - ну, по запросу в поиске "фильтр гугл пират", тема старая.
  • Нужно купить текстовых ссылок, полез на Блогун по старой памяти, а он закрыт (давно ли?) - где теперь это продается?

    Роми, все метрики, имеющие отношение к хосту - то есть сайту в целом. Возраст домена, ссылочное, тематика, качество домена, регион, характер и объём трафика, история, запросный индекс за период и т.п. То есть всё, что ПС знает о сайте в целом.
    Нюанс: для Яндекса ещё имеет значение информация о компании, это тоже часть хостовых. И берет он эту информацию не только и не столько с сайта, сколько с собственных сервисов, так что если речь о коммерческом сайте - надо ковырять учётку в Яндекс-Бизнес, это обязательное условие.
    В Гугл это тоже играет роль, но в основном для каких-то локальных бизнесов (салоны красоты, кафе и прочее, что ищут через карты и с запросами типа "рядом со мной").
  • Нужно купить текстовых ссылок, полез на Блогун по старой памяти, а он закрыт (давно ли?) - где теперь это продается?

    Роми, зависит от ПС. Гугл смотрит на текстовую релевантность и хостовые. Яндекс сначала оценивает текстовые, потом (если всё ок) - пересчитывает по пачке других метрик, где преобладают поведенческие, хостовые и коммерческие. Притом хостовые он оценивает не так, как Гугл, там уже на возрасте домена и ссылочном не выедешь. Ключик, вероятно, закопан в куче под названием ИКС - в первую очередь, насколько популярен сайт у ползателей, много ли трафика и т.п.
  • Как правильно закрывать от индексаций страницы для yandex?

    20strannik08, нет, от robots.txt отказываться точно не стоит. Тем более, что есть же ещё Гугл. Просто для Яндекса сканирование нужно по необходимости открывать, а от Гугла - закрывать.
    Ну, и важно понимать: robots.txt - это про управление сканированием сайта, а не его индексированием.
  • Как правильно закрывать от индексаций страницы для yandex?

    20strannik08, я бы вот не стал париться гипотетическим общим весом. "Качели" будут в любом случае - это же Яндекс, у него алго припадочные, потому что всё на апдейтах по разным метрикам. Сегодня оценил текстовые - качнуло вверх, завтра - поведенческие - в апдейт скинуло, потом пересчитал JS - и опять мотнуло куда-то.
    x-robots-tag - это про серверный ответ, обычно для файлов используется. У вас же метатеги?
    Я вообще к тому клоню, что нужно выбрать какую-то одну модель директив. То, что вы в robots.txt пишете - это про сканирование, вернее, даже про скачивание. Я бы не стал индексацией с помощью robots.txt управляться. Для старта мета "robots" достаточно с запретом на индексирование.
  • Как накрутить счетчик Яндекс метрики на сайте?

    Cheizer, ну, я бы для затравки попробовал именно живой трафик с букс. Качество там чуть получше, и точка входа - пониже. Для бототрафика в тысячу визитов в день уже нужен какой-никакой, а сервер, плюс постоянное создание профилей ботов в объёмах накрутки (один профиль - один визит), а это минимум 10 URL на профиль плюс время на "отлёжку". Понадобятся больше времени и большие бюджеты, если организовывать бототрафик самостоятельно - а там же ещё плата за платформу и прокси.
  • Как делать сео для react приложений?

    szQocks, да, это вариант, но не единственный. Есть ещё динамический рендеринг - боту отдаём рендер, человечек перебьётся CSR. Да и тот же SSR можно реализовать очень по разному. К примеру, как рендерить - по запросу или заранее? Везде свои минуса и преимущества, и очень многое зависит от проекта и реализации.
  • Закрытие страницы site.ru/uslugi/ от индексации, без закрытия страниц /uslugi/1/, uslugi/2/ и т.д. в robots.txt?

    IvanovIvanIvanych, $ на конце урла обозначает его конец. Всё, что идёт после - доступно для сканирования.
    В любом случае, после любых правок - велкам https://www.google.com/webmasters/tools/robots-tes... и в аналогичный инструмент Яндекс-Вебмастера, если есть баги и ошибки - сразу будет понятно.
    Мы же запрещаем категорию, а подкатегории не трогаем?
    Команда Allow вообще обрабатывается не очень корректно, и лично я бы рекомендовал использовать её только для разрешения на сканирование специфических типов файлов (css, js, картинки).
    Небольшой мануал по настройкам robots.txt, я там вкратце подытожил несколько мифов и устаревших практик, может быть, будет полезно.
  • Лучше делать блог интернет магазина на основном домене или поддомене?

    Юрий, идеи про вред статейного раздела имеют под собой некоторую реальную почву в Гугл. Пара примеров:
    1. Сайт услуг с большим и мощным информационным разделом. Коммерческий плохо сканируется. Анализ логов показывает, что гуглобот в основном пасётся в статейном разделе, привлекающем больше людей. Соответственно, ПС получает много сигналов о важности раздела и все ресурсы по обходу сайта тратит на статейник.
    2. Студия озвучки. Огромное количество трафа - на информационный раздел "Кто озвучивает?" - люди идут узнать, кто озвучил, скажем, Железного Человека. Это не клиенты, и они не пойдут по внутренним ссылкам. И количество такого контента на сайте многократно превышает коммерческие странички. В результате сайт ранжируется практически исключительно как информационник.
    В общем, если не переборщить с объёмами и не ошибиться с интентом аудитории - будет хорошо.
  • Насколько эти предупреждения от гугла серьезны?

    Roma_Tornado, вариант только один: добавить соответствующие поля в шаблон и заполнить. Любой разработчик на WP должен справиться.
    Хотя, как я уже сказал, реально это ни на что не влияет - просто несоответствие хотелкам робота. Хотя некоторые поля могут быть полезны (рейтинг товара, отзывы на него и т.п.).