Антон Р., тут не только маркетинг. Товарные карточки - это релевантность категории. Нет вхождений в анкорах - нету соответствия запросу.
Тут либо форму "уведомить о поступлении" интегрировать, либо просто "нет в наличии, посмотрите ватета". То, что в админке есть - на сайт не работает. А просто так убирать трафиковые странички - сайт просядет в поиске однозначно. Тогда уж хоть как-то лид не потерять.
fafa061991, это текстовый анализатор "Мегаиндекса". Можно использовать любой другой, который работает с корпусами Яндекса и текстовыми зонами (тот же Just-Magic).
Мегаиндексовый хорош тем, что анализирует не только вхождения, но и векторы плюс читабельность. Хорошие показатели - это релевантность от 95%.
fafa061991, я бы в первую очередь вот сюда копал (см. скриншот). То есть гипотеза с недостаточной текстовой и структурной релевантностью скорее всего очень близка к истине.
fafa061991, в списке-то они есть как пример. И такие запросы будут скакать фактически неизбежно, если речь не о сайтах типа "пикабу", "авито" и прочие википедии.
V Melnik, Гугл в принципе очень неторопливый, и экономит ресурсы на сканирование веб и расчёты основных метрик. Чтобы он что-то делал, тем более - не жалея ресурсов, ему нужны дополнительные сигналы о ценности того или иного ресурса.
Ссылки и пользовательские сигналы - как раз то, что нужно.
С "Сапой" порядок, арендные ссылки вполне себе могут сработать - просто не надо брать совсем завалящие домены для аренды ссылок, нужны такие, где Гугл эти ссылки в принципе вовремя увидит и учтёт. Арендовать их надолго тоже смысла нет - ну, квартала, по идее, должно быть достаточно. Ссылки из соцсетей, куда гуглобот заходит, тоже годятся.
Хрумер и его аналоги - почему нет? Тут всё решают базы. Меньше мусора в списке доноров - выше шансы.
Факт, что молодой хост без истории и определенной тематики, без набранных пользовательских метрик может болтаться в "песочнице" с годик, и траф получать - только по мНЧ и НЧ. Обе ПС перешли в режим жёсткой экономии ресурсов, и их ещё надо убедить, что сайт кому-то нужен и важен.
Я бы сказал, что проблема в таком виде выглядит куда меньшей, чем реальны фильтры и санкции за что-то. Надо просто подождать и вложить немного ресурсов в хост.
V Melnik, тогда всё ещё интереснее, если речь не о полноценном переезде, а старый домен уже имел другого владельца. Посмотрел новый домен. Ему
а) всего месяц после второй регистрации. Для Гугла это слишком мало, чтобы вообще что-то индексировать всерьёз.
б) Вы - не первый владелец. Что там было раньше? Вы историю проверяли? Домен может быть зафильтрован (хотя думаю, вы пока просто торопитесь с ожиданием результатов).
Попробуйте настроить Google Indexing API и запулить сайт через него. Ну, и трафик на сайт надо дать, или хотя бы ссылочным обеспечить.
V Melnik, речь не про уникальность контента, а про DMCA. Вы лучше скажите, на что такую жалобу могли кинуть - на какой контент? И что случилось со старым доменом? Я в принципе в первый раз увидел такой ответ сервера вживую. Кроме того, непонятно, как вообще настроен переезд на новый домен, если он был настроен.
Техподдержка Гугла не отвечает за индексацию, это алгоритмическое. Что-то ответить вам могут только по поводу "ручника" ("Меры, принятые вручную"). С учётом происходящего в мире ждать ответа от техподдержки можно долго, и не факт, что сподобятся ответить.
У вас старый домен блокнут за пиратство. Не знаю, настраивали ли вы переезд, или Гугл сам определил, что речь о заблокированном сайте, но факт - я бы именно этот вопрос подробнейше разобрал в первую очередь.
Подробности - ну, по запросу в поиске "фильтр гугл пират", тема старая.
Роми, все метрики, имеющие отношение к хосту - то есть сайту в целом. Возраст домена, ссылочное, тематика, качество домена, регион, характер и объём трафика, история, запросный индекс за период и т.п. То есть всё, что ПС знает о сайте в целом.
Нюанс: для Яндекса ещё имеет значение информация о компании, это тоже часть хостовых. И берет он эту информацию не только и не столько с сайта, сколько с собственных сервисов, так что если речь о коммерческом сайте - надо ковырять учётку в Яндекс-Бизнес, это обязательное условие.
В Гугл это тоже играет роль, но в основном для каких-то локальных бизнесов (салоны красоты, кафе и прочее, что ищут через карты и с запросами типа "рядом со мной").
Роми, зависит от ПС. Гугл смотрит на текстовую релевантность и хостовые. Яндекс сначала оценивает текстовые, потом (если всё ок) - пересчитывает по пачке других метрик, где преобладают поведенческие, хостовые и коммерческие. Притом хостовые он оценивает не так, как Гугл, там уже на возрасте домена и ссылочном не выедешь. Ключик, вероятно, закопан в куче под названием ИКС - в первую очередь, насколько популярен сайт у ползателей, много ли трафика и т.п.
20strannik08, нет, от robots.txt отказываться точно не стоит. Тем более, что есть же ещё Гугл. Просто для Яндекса сканирование нужно по необходимости открывать, а от Гугла - закрывать.
Ну, и важно понимать: robots.txt - это про управление сканированием сайта, а не его индексированием.
20strannik08, я бы вот не стал париться гипотетическим общим весом. "Качели" будут в любом случае - это же Яндекс, у него алго припадочные, потому что всё на апдейтах по разным метрикам. Сегодня оценил текстовые - качнуло вверх, завтра - поведенческие - в апдейт скинуло, потом пересчитал JS - и опять мотнуло куда-то.
x-robots-tag - это про серверный ответ, обычно для файлов используется. У вас же метатеги?
Я вообще к тому клоню, что нужно выбрать какую-то одну модель директив. То, что вы в robots.txt пишете - это про сканирование, вернее, даже про скачивание. Я бы не стал индексацией с помощью robots.txt управляться. Для старта мета "robots" достаточно с запретом на индексирование.
Cheizer, ну, я бы для затравки попробовал именно живой трафик с букс. Качество там чуть получше, и точка входа - пониже. Для бототрафика в тысячу визитов в день уже нужен какой-никакой, а сервер, плюс постоянное создание профилей ботов в объёмах накрутки (один профиль - один визит), а это минимум 10 URL на профиль плюс время на "отлёжку". Понадобятся больше времени и большие бюджеты, если организовывать бототрафик самостоятельно - а там же ещё плата за платформу и прокси.
szQocks, да, это вариант, но не единственный. Есть ещё динамический рендеринг - боту отдаём рендер, человечек перебьётся CSR. Да и тот же SSR можно реализовать очень по разному. К примеру, как рендерить - по запросу или заранее? Везде свои минуса и преимущества, и очень многое зависит от проекта и реализации.
IvanovIvanIvanych, $ на конце урла обозначает его конец. Всё, что идёт после - доступно для сканирования.
В любом случае, после любых правок - велкам https://www.google.com/webmasters/tools/robots-tes... и в аналогичный инструмент Яндекс-Вебмастера, если есть баги и ошибки - сразу будет понятно.
Мы же запрещаем категорию, а подкатегории не трогаем?
Команда Allow вообще обрабатывается не очень корректно, и лично я бы рекомендовал использовать её только для разрешения на сканирование специфических типов файлов (css, js, картинки).
Небольшой мануал по настройкам robots.txt, я там вкратце подытожил несколько мифов и устаревших практик, может быть, будет полезно.
Юрий, идеи про вред статейного раздела имеют под собой некоторую реальную почву в Гугл. Пара примеров:
1. Сайт услуг с большим и мощным информационным разделом. Коммерческий плохо сканируется. Анализ логов показывает, что гуглобот в основном пасётся в статейном разделе, привлекающем больше людей. Соответственно, ПС получает много сигналов о важности раздела и все ресурсы по обходу сайта тратит на статейник.
2. Студия озвучки. Огромное количество трафа - на информационный раздел "Кто озвучивает?" - люди идут узнать, кто озвучил, скажем, Железного Человека. Это не клиенты, и они не пойдут по внутренним ссылкам. И количество такого контента на сайте многократно превышает коммерческие странички. В результате сайт ранжируется практически исключительно как информационник.
В общем, если не переборщить с объёмами и не ошибиться с интентом аудитории - будет хорошо.
Roma_Tornado, вариант только один: добавить соответствующие поля в шаблон и заполнить. Любой разработчик на WP должен справиться.
Хотя, как я уже сказал, реально это ни на что не влияет - просто несоответствие хотелкам робота. Хотя некоторые поля могут быть полезны (рейтинг товара, отзывы на него и т.п.).
Тут либо форму "уведомить о поступлении" интегрировать, либо просто "нет в наличии, посмотрите ватета". То, что в админке есть - на сайт не работает. А просто так убирать трафиковые странички - сайт просядет в поиске однозначно. Тогда уж хоть как-то лид не потерять.