Ответы пользователя по тегу Поисковая оптимизация
  • Associative запросы в GSC - что они означают?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    По своим проектам не встречал, у меня только рунет. У вас есть ассоциированные учётки в других сервисах Google? Запросы, гипотетически, могут подтягиваться и оттуда, если GSC знает эти ассоциации.
    Ответ написан
    Комментировать
  • Почему посещения сайта ограничены?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Судя по сервисам видимости, у вас все запросы в зоне видимости - суб-НЧ. Тематика - сезонная, да ещё и инфо. В зоне видимости - 80 с чем-то страничек. Частотки - дай бог 20 запросов в месяц с топ-1.
    В инфо-сегменте сейчас вообще всё плохо, так что всё в норме.
    Ответ написан
    2 комментария
  • SEO-специалисты, вы сами проставляете крауд или заказываете за бюджет проекта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не вижу никакого смысла в крауд-ссылках сейчас.
    Единственный расклад - лидген, но его никакой аутсорс не сделает, тут нужна реально хорошая площадка, реально прокачанная учётка и реальный продукт, чтобы продавать.
    Но точно не ссылочное.
    Ответ написан
    Комментировать
  • Стоит ли продолжать работать с региональными поддоменами?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Региональный субдомен хорош, если у вас в заданном городе есть физическая точка. Яндексу важна региональность, а не топоним в домене или тексте.
    Нет физических точек - сворачивайте субдомен, если в этом регионе ни продаж, ни трафика. Тем более, если речь про товары для дома.
    Ответ написан
    Комментировать
  • Почему Google и Yandex не распознают favicon и description?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Тайтлы и метатеги для поисковиков могут быть как угодно изменены поисковой системой под конкретный запрос. Обычно это первый признак того, что с ними что-то не так.
    Второй момент: обновляются ли они средствами JS и не им ли вообще выводятся. Да, ПС сейчас хорошо работают с JS-контентом, но индексирование его всё же идёт позже и отдельным потоком. Тут надо проверять по месту: что есть в "сыром" HTML, а что выводится в рендеринге.
    Что касается favicon – давно пора кроме favicon.ico добавлять иконки большего разрешения под разные устройства через manifest. От багов не спасёт, но проблем будет точно меньше. В обеих ПС сканирование идёт мобильными UA.
    Ответ написан
    Комментировать
  • Как выводить сайт в топ по определенным запросам?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не та логика.
    ПС ранжируют бизнесы, компании. Чтобы высоко ранжироваться по "купить авто" и конкурировать с "Рольфом", надо иметь бизнес, сравнимый с "Рольфом". А также домен, сравнимый возрастом, ссылочной массой, объёмом витальных запросов и т.п. с ним же. У крупных компаний в сеошку в месяц бюджет - до полмиллиона в рублях.
    Статьи – совсем мёртвая тема, если речь о коммерческом сегменте. А инфо-сегмент давно мёртв, там толкаются "Дзен", "КП", "Пикабу" и другие чудовища. А топы - не резиновые.
    Пощупайте нишу, посмотрите, что у вас уникального в коммерческом предложении и с хорошим ассортиментом, и делайте акцент на этом из числа не самых конкурентных запросов. Но на одном ссылочном и ПФ сейчас далеко не уехать.
    Ответ написан
    3 комментария
  • Почему Google назначает страницы с www каноническими?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Как уже сказали выше - настройте 301-й редирект с зеркал. Этого будет достаточно.
    А причины можно и отдельно поразбирать: скажем, на версии с www накопилось больше внешних или внутренних ссылок, пользовательских сигналов и т.п. Canonical - не приказ для роботов, а пожелание, и при ряде чисто технических моментов они могут игнорироваться.
    К слову: я бы ещё проверил, выводится ли Canonical в raw-html или это добавляется уже на уровне JS. Чисто из любопытства.
    Ответ написан
    Комментировать
  • Как правильно настроить Key Collector?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Яндекс больше не позволяет парсить запросы из Вордстат. Для этого можно использовать API XMLRiver. Платный, разумеется.
    Запросы можно взять из Букварикс, он сейчас абсолютно бесплатен.
    Частотность парсится через Директ - там ничего не надо, просто яндексовые учётки с привязанным телефоном (одним на всех). Кабинет не нужен.
    Выдача парсится тоже по XML - либо с помощью xmlriver, либо с помощью xmlstock.
    Нюанс. Для парсинга из Директа всё же нужно брать Rucaptcha. Это очень дёшево, но без неё никак. Мне в среднем рублей 200 хватает на пару лет, при том, что парсить приходится много и регулярно.
    Ответ написан
    3 комментария
  • Как убрать дубликат главной страницы на тильда?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Во-первых, надо бы уточнить, какого рода дубликаты. Нужно выбрать один, канонический URL, по которому поисковые системы будут показывать главную, и настроить 301-е редиректы на него. Условно - с версий http, www и https://www надо настроить редиректы на версию https:// без www (если, конечно, выбрана эта версия).
    Второй вариант технических дублей - это URL с параметрами (обе поисковые системы сейчас активно лепят свои параметры с выдачи, Яндекс добавляет параметры к URL, которые нашёл через Метрику и т.п.). Это решается с помощью канонических адресов (Canonical) и Clean-param – в этом случае все адреса с параметрами будут склеены (консолидированы) с каноническим, и страница не потеряет ничего хорошего (поведенческие, ссылочные и т.п.).
    Как конкретно сделать всё это в рамках Tilda - другой вопрос, там возможности достаточно ограничены. Но для такой базы инструментарий должен быть.
    Ответ написан
    Комментировать
  • Если страница проиндексирована, значит внешние ссылки, размещенные на ней, тоже учтены поисковыми системами?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Формально - да. Если страница попала в индекс. то поисковая система должна обнаружить и ссылку.
    Но есть нюансы: тот же Гугл - это не единый индекс. Он в принципе может выдрать со страницы какие-то отдельные шинглы и даже хорошо их ранжировать, но прочее в базу не вносить. Или наоборот: после деиндексации за что-то основного контента ссылка с него может оставаться в базе данных поисковика и он по ней будет периодически ходить.
    Кроме того, то, что ссылка найдена и проиндексирована вовсе не значит, что она будет учтена в ранжировании.
    Но это уже дебри, малополезные для работы.
    Ответ написан
    Комментировать
  • Как редирект с www. повлияет на позиции сайта в выдаче?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сайт на www и без www - два разных домена. Да, www - это именно домен. Так что всё тут - как при любой переклейке-переезде: не сразу, не всегда гладко, возможны проблемы.
    Решается редиректами (301) и потом немножко подождать. В нормальном случае проблем быть не должно.
    Ответ написан
    Комментировать
  • Key Collector работает только на ОС Windows, какой аналог вы порекомендуете для работы на Мас?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Кейколлектор можно использовать через виртуалку или Docker.
    Ну или разбираться, какие функции его нужны и искать инструментарий соответствующий - для парсинга, выгрузки данных по API, фильтрации, кластеризации и т.п.
    Но вообще говоря, полноценной замены нету: для работы с Google толку от него мало, сделан он под Яндекс, отсюда и проблемы.
    Ответ написан
    Комментировать
  • Каким должен быть H1 с т.з. Яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Тайтл - это своего рода корешок книги, где коротко и ёмко пишут то, что должен увидеть человек на поисковой выдаче, и то, что робот должен понять о содержании страницы. Что спрашивают (или должны спрашивать) - то и пишите. Сильно спамить нынешние алгоритмы там не дадут, они умеют формировать тайтлы самостоятельно, на базе проиндексированного по странице контента.
    H1 - это уже версия для людей, которые уже пришли на страницу, и по этому заголовку должны понять, туда ли они попали. Туда не надо добавлять "купить", "в Сызрани", "недорого" и т.п. Если ваш артикул важен для пользователя и это часть поисковых запросов - добавляйте куда надо. Многочисленные характеристики в заголовки выводить чаще всего незачем, выводите только критически важные данные, отличающие этот товар от всех остальных.
    Ответ написан
    1 комментарий
  • Почему Яндекс считает страницы сайта малоценными и мало востребованными?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не на то смотрите.
    МПК - это про трафик. Нет трафика - Яндекс не может оценить качество и присваивает МПК. Выход прост и понятен: решите проблему с этим самым трафиком.
    • Создайте контент, который этот трафик привлечет (выше Дмитрий эту тему уже затронул).
    • Трафик годится любой, не только из поиска. Можно использовать паразитный и из соцсетей
    • Найдите нишу, где конкуренция с каким-нибудь "Кинопоиском" невелика
    • Учтите, что есть запросы, заточенные только под видео, а поисковые системы могут ведь и не понять, что это самое видео у вас тоже есть
    Ответ написан
    Комментировать
  • Как сделать robots.txt и sitemap.xml на мультиязычном сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt всегда лежит только и исключительно в корне сайта, никак иначе.
    Где лежит сайтмап - в общем-то, без разницы, тут строгих правил нет. Хотя разумнее держать его тоже в корне.
    Ответ написан
    Комментировать
  • Как узнать когда страница сайта попала в индекс гугл?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Никак.
    Гугл нигде и никак не палит информацию, когда страницу нашёл, когда просканировал, когда и что внёс в индекс - и в какой. Индексов много, и они фактически независимы друг от друга.
    Доступный максимум - поднять серверные логи, найти посещение гуглобота, убедиться, что это действительно гуглобот, а не парсер конкурентов, представляющийся гуглоботом.
    Дальше - только интуиция.
    Ответ написан
  • Консультация по авторскому праву. Как правильно использовать чужие фото на своем сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Начинать надо с контентщиков, чтобы понимали: за тыринг картинок без включения головы и "фото взято из открытого источника - Яндекс-картинок" прилетать будет именно им, им и платить штрафы - уже владельцу сайта. Это надо прописать в договоре и в оформленной политике работы с контентом.
    Ну а далее просто жёстко обозначить круг источников, где картинки можно брать. А это:
    • Wikimedia. Там лицензия открытая.
    • Фотостоки с бесплатными работами. Надо учитывать, что там тоже есть требования к использованию, например, указание автора с активной ссылкой.
    • Генеративные сети. Чаще всего берут достаточно бессмысленные картинки в качестве заполнителя места. Такое достаточно просто генерируется. Не обязательно использовать платные генеративки, есть сервисы типа Leonardo, где вам дают 100 (примерно) токенов в день бесплатно.
    • Для более специфических задач (схемы, диаграммы) можно использовать сканы книг с некоторым объёмом редактирования. Чем старше книга - тем меньше вероятность, что вами заинтересуются люди в серых костюмах.
    • Нанять человека, способного быстро и хорошо делать иллюстрации самостоятельно. Это не так сложно и дорого, как может показаться.

    Ну и учитывайте, что не прилетит абсолютно точно только за то, что вы создали сами. Ни в одном другом случае нет никаких гарантий - все эти бесплатные стоки и даже сгенерированные картинки - условность, правила лицензирования могут внезапно измениться.
    Ответ написан
    Комментировать
  • Раздел /shop/ или поддомен для интернет-магазина?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Субдомен - отдельный сайт, которому придётся набирать хостовые самостоятельно. А это сейчас долго, дорого и чисто технически непросто.
    Папка была бы более логичным решением, если речь не о сайте уровня "леруа-мерлен" или "всеинструменты".
    Один нюанс: я так понимаю, вы всё же собираетесь продавать таким образом услуги, а не сопутствующие товары. И тут, вероятно, вы столкнётесь с реальными проблемами соответствия своих страниц тому, что Яндекс видит в топах. А это чревато нерелевантностью со всем отсюда вытекающим.
    Ответ написан
    Комментировать
  • Какими сервисами полезен KeyCollector? Он теперь перестал корректно собирать ядро?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    За свои деньги KC и сейчас живее всех живых для работы с семантикой под Яндекс. Да, из Вордстат он теперь тянет данные с бубном: либо через XMLriver, либо с фокусами. Но
    а) Не вижу смысла сейчас тянуть из Вордстат весь мусор с "хвостами"
    б) Можно вытянуть всё это из Wordkeeper или Букварикс или Кейссо.
    Всё остальное работает как работало. Я обычно там просто вытягиваю частотки из Директ, плюс оценка посадочных страниц на релевантность и ранжирование. Можно там и кластеризовать, но я предпочитаю KeyAssort - мне это удобнее и результаты нравятся больше.
    Ответ написан
    Комментировать
  • В поисковой выдаче по определенному запросу вместо нужной находится похожая страница - как настроить на нужную?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не соглашусь с идеей редиректа. Пример: по частотному коммерческому запросу Яндекс ранжирует главную страницу вместо целевой в каталоге. Только потому, что ему так проще, а по текстовому контенту обе плохо проработаны. Что даст редирект кроме отказов и выпадения из ранжирования?
    Если Яндекс ранжирует не ту страницу, значит, что-то не так с целевой. И вот отсюда - следующие манипуляции:
    • Анализ текстовой релевантности. Возможно, всё упирается в плохую текстовую оптимизацию.
    • Оценка выдачи. Если по запросу там торчат, например, главные - то надо с этим что-то делать.
    • Оценка интента. Бывает, что в спектральной выдаче интент меняется по нескольку раз в год. Банально: весной студенты пошли в поиск за материалами для рефератов и курсовых - и выдача сменилась с коммерческой на информационную - до конца сессии.
    • Если всё сделано - надо немножко пнуть ПС ссылочным и поведенческими. Самый простой способ - полить целевую посадочную страницу трафиком из Директа. Много там не нужно, просто набрать какой-то объём трафика по запросам и расширить запросный индекс. То же самое - с внешними ссылками. Их взять хоть из Сапы в аренду, вполне годится.

    Ну и да, надо учитывать, что переклейка при серьёзной каннибализации - дело небыстрое, меньше квартала обычно не получается - разве что нецелевая в выдаче совсем уж неоптимизирована.
    Ответ написан
    Комментировать