• Важна ли уникальность описания карточек товара?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет, критически важной уникальность карточек товаров не является, хотя неуникальность снижает общую ценность таких страниц. И это логично: вот 50 сайтов, все взяли товары из одного источника - в чём УТП?
    Кроме того, в большинстве случаев сами по себе карточки товаров трафик из поиска не привлекают - если речь не о каких-нибудь смартфонах или любой другой сферы, где востребованы не категории, а именно конкретные модели товаров.
    Если вы продаёте не смартфоны или видеокарты, я бы больший акцент сделал на проработке товарных категорий, а описания товарных карточек - по мере возможностей и ресурсов.
    Кроме того, не забывайте, что уникальность контента определяется не только описаниями товара. Выводите вспомогательные блоки (похожие товары, популярное, отзывы) - вот и будет уник даже на описаниях от производителя.
    Ответ написан
    Комментировать
  • Как закрыть в noindex один выпадающий пункт меню на WP?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не стоит закрывать в noindex то, что выводится в меню - хотя бы потому, что в индекс оно всё равно пойдёт по совокупности сигналов о важности URL. Любая директива - это не приказ, а просьба, рекомендация со стороны пользователя к ПС. И в этом случае велика вероятность того, что ПС эту просьбу проигнорируют.
    Ответ написан
    Комментировать
  • Как правильно закрывать от индексаций страницы для yandex?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Ну, во-первых, если запрещать сканирование в robots.txt, то яндексбот не узнает, что страничку индексировать не надо. Ему запрет скачивать её в robots.txt должен помешать. Если эти страницы уже в индексе - так ведь там и зависнут.
    Во-вторых, я не понимаю смысла самой манипуляции. Там hreflang надо прописать правильно, закрывать ничего не нужно. То, что не получит трафика из Яндекса - он и сам деиндексирует за милую душу. На ранжировании русской версии не скажется.
    Ну, и как выше совершенно справедливо отметили - 3 дня сейчас это вообще ни о чём. В 2022 Яндекс резко сократил ресурсы на обход и расчёты, плюс его колбасит привычно месяцами. так что не стоит спешить с выводами.
    Ответ написан
  • Есть ли смысл делать интернет магазин на определенный регеон?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Только так и стоит, если вам интересен канал SEO и Яндекс. Для Яндекса нет региона "Россия" - тут буквально, кто везде, тот нигде. Поэтому вам нужно продумать, как вы будете работать с региональностью (папка или субдомен), учесть нужные топонимы в текстовом контенте (тайтл, дескрипшен, контакты и т.п.), настроить региональность через Яндекс-Вебмастер и Яндекс-Бизнес - и будет хорошо.
    С Гугл сложнее, там другие принципы работы с региональностью, субдомены он в принципе индексирует с большим скрипом. Но с папками работает хорошо, плюс в помощь - Google Мой Бизнес и топонимы.
    Ответ написан
    1 комментарий
  • Как найти внешние ссылки на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Гугл не покажет все ссылки с сайта, поскольку наверняка даже не все страницы в индексе. Плюс есть ещё интересный вариант - это "лом", когда на взломанном сайте делается подобие отдельного сайта, невидимого из интерфейса основного - но видимого для поисковых роботов.
    Лучший вариант - взять хороший парсер, типа бесплатного SiteAnalyzer или Screaming Frog SEO Spider, и включить обход. Покажет все внешние ссылки после краулинга.
    Ответ написан
    Комментировать
  • Как изменить переход по ссылке с браузеров?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нужно настроить постоянный (301) редирект на новые URL. Способов много - через htaccess, или на уровне CMS.
    Важно перед настройкой составить список URL, на которые нужно настраивать перенаправление. Их можно выгрузить через консоли поисковых систем для вебмастеров (список проиндексированных страниц). В рамках же сайта нужно проверить все внутренние ссылки и исправить их после настройки редиректа на актуальные - старые URL в индексе не нужны, и незачем гонять робота через двойные переходы.
    Чем быстрее робот поймёт, что страницы окончательно перенесены - тем быстрее проиндексирует новые URL, а старые выкинет из индекса.
    И да, в зависимости от выбранного способа настройки редиректа (через сервер, htaccess или на уровне системы управления сайтом) могут подразумевать и шаблон - одна строчка вместо пачки URL.
    Ответ написан
    Комментировать
  • Как оценить качество кластеризации?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Кластеризация - сложная тема в принципе, особенно сейчас, когда доступные источники ключей крайне зашумлены накрутчиками и кривыми алгоритмами Яндекса с момента ввода трансформеров.
    Два кластеризатора - явно избыточно. В вашей тематике (автомобили или автодетали же?) используйте хард-алгоритм с порогом в 3, в качестве региона для сравнения - Москва (как самый многочисленный, конкурентный и "вылизанный" в результате конкуренции), с отсечением сервисов Яндекса, новорегов и прочего выраженного мусора.
    Дальше - ручками, в поиске явно случайных ключей, залетевших в чужие кластеры из-за зашумленности эталонного корпуса.
    Ответ написан
    Комментировать
  • Стоит ли продвигать сайт по производителям и нашим конкурентам?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    По производителям - однозначно стоит. Я бы только посоветовал аккуратнее обращаться с ключом "официальный сайт", если у вас нет статуса авторизованного дилера и т.п.
    По конкурентам в рамках SEO - однозначно нет. Я видел примеры, где всякая мелкота пыталась двигаться по чужим брендовым запросам (уровня "леруа", "авито") - и речь всегда о несоответствии интента, типа контента, и испорченных поведенческих метрик - потому что в 99,9% вы получите "отскок" на выдачу.
    Единственный приемлемый вариант - это обзоры, рейтинги и прочий некоммерческий контент с шансом получить конверсию в рамках конверсионной цепочки.
    В любом случае: собирайте семантику, оценивайте потенциал обнаруженных групп. В вашей тематике рулят брендовые запросы (когда ищут именно вас) и микро-НЧ ключики.
    Ответ написан
    Комментировать
  • Как накрутить счетчик Яндекс метрики на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Есть пачка решений: ботами - ZennoPoster или BAS (и решения на их базе), либо живыми людьми с какой-нибудь буксы или сервиса накруток.
    Но просто так накрутить уже не получится, поскольку Метрика фильтрует подозрительный трафик, и тот трафик, что получен явными ботами или вообще не соответствует критериям качества, Метрика отфильтрует.
    Как вариант - попробуйте заказать накрутку трафика где-нибудь на Kwork, там многие предлагают подобные услуги. Только имейте в виду – это небезопасно и небезобидно в перспективе, если вы вообще в принципе планируете в дальнейшем развивать сайт и продвигаться по SEO.
    Ответ написан
    4 комментария
  • Как защитить изображение на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Никак и низачем. Если речь о перерисовать - перерисуют. Любая защита для того, что может быть выведено на экране - бесполезна.
    Возможно, я бы подумал о защищенном pdf, куда вшит html с прозрачным пиксельным gif или png поверх картинки, чтобы нельзя было скопировать.
    Но по опыту – если захотят украсть, то сопрут так или иначе.
    Ответ написан
    Комментировать
  • Чем собрать качественное семантическое ядро, софт или сервис?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Инструментарий не изменился (хотя и появились сложности).
    Самый бюджетный - связка KeyCollector и KeyAssort (для кластеризации). КейКоллектор сейчас работает дольше и с бубном, поскольку Яндекс решил усложнить людям процессы, но пока работает.
    Второй путь –использовать сервисы (например, Just-Magic, Rush Analytics и т.п.). Сильно дороже, преимуществ по качеству особых я не вижу.
    Главный же вопрос: а надо ли собирать "максимально полное ядро" да ещё с опорой на ключи и их частотность?
    Оптимальный вариант – собрать базовую структуру категорий по топам, и если тематика большая - масштабировать поэтапно. Раньше был смысл учитывать "хвосты", поскольку были важны вхождения. Сейчас алгоритмы-трансформеры практически эти хвосты игнорируют, им важнее интент. Да, риск создать категорию-"нулевку", не способную привлечь самостоятельный трафик из поиска остаётся. Но это не значит, что такая категория не способна получить трафик не из поиска - и этого уже достаточно, чтобы не попасть под МПК, если реальный спрос всё же есть.
    Ответ написан
    Комментировать
  • Как лучше составить структуру сайта на Wordpress?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Думаю, сама по себе формулировка запроса не очень корректная. В рамках Wordpress структура всё равно будет стандартной для WP с базой в таксономиях. В вашем случае едва ли есть смысл углубленно прорабатывать семантику с опорой на поисковый спрос. Однако и обычными листингами обойтись не удастся., поскольку в рамках Wordpress всё построено на обычных "лентах" по категориям и тегам.
    Я бы предложил проработку страниц-хабов, то есть страниц портального типа – примерно так, как сделано в интернет-магазинах. Частично она должна основываться на поисковом спросе: самые востребованные категории стоит вывести в отдельный блок в любом случае. Остальное – на подборках по популярности, рейтингам (тут уже думать - каким), языкам.
    Обязательно добавить фильтратор и поиск.
    В целом - стоит оценить топовые сайты в этой тематике и посмотреть соответствующие шаблоны WP для интернет-магазинов. Как правило, там хорошо реализовано и тегирование, и фильтрация, и прочие инструменты структурирования контента.
    Отдельная тема - настройки пагинации. В вашем случае едва ли стоит закрывать страницы пагинации от сканирования роботами, правильнее присвоить канонический URL, а сами канонические "посадки" не оставлять в виде обычных листингов.
    Ответ написан
    Комментировать
  • Может ли полноценный сайт не получать позиций в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сайт по факту очень кривой. Смотрите техничку как минимум. Редиректы хотя бы поправьте: почему с "морды" перенаправляет на "Тик-ток"?
    Ну, и вот таких блох предостаточно.
    То, что вы перечисляете в качестве якобы важных для Гугл метрик - это как раз блохи.
    Во-вторых, сервис-то рабочий? Я попробовал скачать видос с "Ютуба". Не получилось.
    Ответ написан
    3 комментария
  • Как сделать региональность сайта без поддоменов?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Под Битрикс есть хорошее готовое решение у "Сотбит". По заданному списку городов можно шаблонизировать посадочные страницы - с выводом соответствующего топонима в тайтл, заголовок, со своим текстом, отличиями в прайс-листе.
    Только это всё равно не о региональности, если речь о SEO. Для привязки к регионам вам понадобится хоть какая-то фактура, соответствующая региону. Офис, адрес дилера, склад, терминал транспортной компании - что-то реальное. Без этого можно будет двигаться только по ГНЗ-ключам с подстановкой топонима, а от такого толку всё равно слишком мало.
    Ответ написан
    Комментировать
  • Как продвигать новый сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    В 2022 году для получения мало-мальской динамики вверх из поиска нужно обеспечить поисковым системам главную составляющую: пользовательские сигналы. Если на сайт нет трафика, то сам по себе из органики он и не появится. И вот тут два варианта действий.
    а) В Яндексе ищите любые возможности обеспечить сайту трафик. Хоть из Директа, хоть по партнеркам, хоть ботами. Нет трафика - будет фильтр за малопопулярный контент.
    б) В Google вам нужно вообще уговорить робота хоть что-то сканировать и индексировать. И по идее, озаботиться этим следовало ещё до запуска сайта. Обычная тема - это подклейка дропов, или линкбилдинг прямо со старта. Трафик тоже нужен, для этого можно использовать соцсети. И да, ботный трафик гугл "палит" хорошо и учитывать не станет, но Яндекс трафик из Google оценит.
    Просто уповать на ссылки я бы не стал. Яндексу они не нужны, ссылки с мусорных сайтов в Google могут и сработать – но через время, и найдёт он не все, и учтёт только часть.
    Проблема в том, что новые сайты поисковым системам уже не очень интересны. Это должно быть что-то действительно востребованное, новое, интересное аудитории. И убеждать поисковые системы в качестве сайта должны посетители, по другому уже не получится.
    Ответ написан
    Комментировать
  • Как делать сео для react приложений?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    На вопрос в двух словах не ответишь, потому что слишком много нюансов. Читайте про Javascript SEO и продвижение SPA. Но да, в основном роботам отдают пререндер, иначе нечего ему на сайте делать. Даже если гуглобот JS может рендерить, он не делает этого сразу, ему нужен "сырой" HTML. Про Яндекс ужо молчу, они сейчас выкатывают обновление по обработке JS - но пока непонятно, в каких объёмах, и там всё равно всё на апдейтах.
    Ответ написан
    3 комментария
  • Убрать циклическую ссылку с logo?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Я бы сказал, что это пустая трата времени. Циклическая ссылка на логотипе с главной ни на что не влияет. Это не ошибка.
    Ответ написан
    Комментировать
  • Как убрать дубли вида?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Наличие таких ошибок - явный признак ошибок на уровне htaccess (кольцевые редиректы) и присутствие ссылок на этот мусор в рамках сайта. парсер их каким-то образом находит, и робот отправляется по кольцу. Ошибка может быть буквально фатальной в Google, таким образом целые разделы могут оказываться вне индекса, гуглобот до конечной страницы просто не доходит.
    Частая причина, помимо ошибок в htaccess - удаление товара с 301-м на главную страницу или категорию, без удаления ссылок на удаленное с сайта, или битые canonical, и целые связки таких ошибок.
    Я бы посоветовал спарсить сайт любым доступным парсером (Screaming Frog Seo Spider, SiteAnalyzer и т.п.) и посмотреть на редиректные URL, присутствие их во входящих внутренних ссылках) и после этого ставить конкретные диагнозы и вносить правки.
    Ответ написан
    Комментировать
  • Почему не меняется заголовок страницы в поисковике?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Во-первых, поисковые системы не сразу обнаруживают изменения. Чем меньше и малопопулярнее сайт - тем дольше временной лаг. Используйте "Переобход" в панелях вебмастеров. Но в любом случае, средний срок - 1-2 недели.
    Во-вторых, кэшированная версия сайта также должна обновиться в самой поисковой системе.
    В третьих, поисковые системы могут менять ваш тайтл, если сочтут его слишком спамным и несоответствующим. Гугл делает это регулярно, последний год - практически системно.
    Ответ написан
  • Закрытие страницы site.ru/uslugi/ от индексации, без закрытия страниц /uslugi/1/, uslugi/2/ и т.д. в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не так это делается. Достаточно вот такой формулы:
    Disallow: /uslugi/$
    URL, содержащие какие-то знаки после /uslugi/ - будут сканироваться.
    И да, у вас глобальная ошибка с пониманием назначения robots.txt. Он запрещает и разрешает сканирование, а не индексацию. Если хотите запретить индексацию - используйте метатеги и канонические адреса.
    Ответ написан
    2 комментария