Задать вопрос
  • Как правильно составить политику конфиденциальности для сайта без форм регистрации, комментариев и обратной связи?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Существует пачка генераторов соглашений такого рода - как в рунете, с учетом местного законодательства, так и в "бурже", с учётом законов ЕС и США. Оформлены в виде чеклистов, вам нужно лишь указать некоторые данные и отметить галочками интересующие поля.
    Рекламировать конкретные сервисы не буду, в Яндексе находятся по запросу "генератор пользовательского соглашения для сайта".
    63810ea1312ee625003063.png
    Ответ написан
    Комментировать
  • Как отключить обращения к яндекс.метрике при локальной разработке?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Там есть настройка "Принимать данные только с указанных адресов". Бывают ведь ещё и шутники, любители баловаться реф-спамом и т.п. В Метрику, если что, можно и спамить люто, вообще не заходя на сайт.
    637e03ff71914505523031.png
    Ответ написан
  • В каких случаях ставить полный канонический url?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Canonical во всех случаях может быть только один: полный URL страницы, которая должна быть в поиске, то есть целевая посадочная страница под какую-то группу запросов для исключения полных дублей.
    Ответ написан
  • Кто может помочь с SEO-Friendly локализацией урлов для (с hreflang)?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Если урлы давно в выдаче и принимают траф - не надо их трогать ради абстрактного SEO-френдли. Яндекс в принципе такое динамит, Гугл же работает только с полноценным английским, никакого транслита и пуникода. Но в сравнении с рисками потери накопленных пользовательских/поведенческих сигналов в результате редиректов какие-то там мелкие профиты от ключей в урлах - это просто тьфу и растереть.
    Я бы не стал менять существующую структуру ради такого.
    Ответ написан
    Комментировать
  • Как продвигать каталог товаров (SEO) в котором товары периодически обновляются - какие то уходят, какие то приходят?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сильно зависит от товарной матрицы. Если у вас товарные карточки привлекают трафик больше, чем категории (к примеру, вы продаёте смартфоны или видеокарты), то удалять карточки сразу и наглухо не надо. Просто сортируйте их на категории куда-нибудь в конец списка, и удаляйте, если только такие карточки начинают создавать проблемы - отказной трафик, например.
    Если речь о большом каталоге с чем-то и FMCG (носки какие-нибудь) - можно сносить сразу, это ни на что не влияет на объёмах и не привлекает самостоятельного трафика.
    Не рекомендую использовать какие-нибудь редиректы, как многие любят. Это путь вникуда, и технические проблемы со сканированием в ближней перспективе.
    Единственное - стоит удалять несуществующие товары из карты сайта, и в ряде случаев можно подумать об использовании meta robots - noindex, follow. В этом случае вы не потеряете вхождений ключа на категории, а роботы не будут засорять индекс мёртвыми урлами.
    Ответ написан
    2 комментария
  • Есть ли проблема индексации роботами текста, который спрятан под кат?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Нет, не проблема, если кат реализован средствами CSS и JS и поисковые роботы могут его просканировать в принципе. Проблемой будет только использование средств AJAX.
    Однако учитывайте, что с точки зрения ПС скрытый от пользователя контент рассматривается как неважный, второстепенный, и при повторных пересчётах текстовых метрик страницы может быть проигнорирован.
    Ответ написан
    Комментировать
  • Скачут позиции сайта, как быть?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Запросы, преимущественно, - откровенный мусор, по которым в выдаче будет что угодно. Отфильтруйте хоть ключи-то по релевантности и коммерческим метрикам. "Дом строить" - это не запрос для коммерческого сайта без чётких позиций.
    Ну а вообще, судя по симптоматике, у вас недостаточная релевантность с точки зрения ПС, либо недобор каких-то метрик. Скажем, текстовые условно соответствуют эталонному корпусу, но по поведенческим страница проседает. Без конкретики диагноз поставить не получится.
    Ответ написан
    7 комментариев
  • Почему гугл не индексирует новые записи?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Чтобы узнать точные причины, нужно проводить полноценный аудит. В общем же можно сказать следующее:
    а) Вы должны понимать, куда шли люди и по каким запросам. Вероятно, что-то трафиковое вывалилось за пределы кликабельности. Анализируйте данные Search Console и GA.
    б) Проверяйте серверные логи на визиты гуглобота. Велика вероятность, что он просто стал реде заходить, по каким-то причинам снизив лимиты на сканирование сайта. Причинами могут быть технические ошибки, недостаток положительных пользовательских сигналов, попадание под один из фильтров.
    В целом - есть общий тренд на снижение активности гуглобота в рамках рунета по вполне понятным причинам. Попробуйте использовать Google Indexing API для индексации новых страниц, это работает.
    Ответ написан
    5 комментариев
  • Как заставить Гугл проиндексировать сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист
    У вас сайт под фильтром за пиратство. Гугл не будет его индексировать, пока не решена эта проблема.
    Снимайте фильтр.
    Ответ написан
  • Нужно купить текстовых ссылок, полез на Блогун по старой памяти, а он закрыт (давно ли?) - где теперь это продается?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Биржи всё те же. тИЦ как метрика мертв. Гугл без ссылок по-прежнему не едет, но кушает их более придирчиво - мусор в индекс не попадёт. Под Яндекс закупкой ссылок можно не париться, если только ссылка не будет трафиковой.
    Вообще говоря если нет конкретной задачи, решаемой только ссылками, лучше влить бюджеты во что-то более внятное - дропы, сателлиты, ПФ, контент. Ссылочное типа "чтобы было" - не нужно.
    Ответ написан
    5 комментариев
  • Каково время ожидания поисковых систем после обновления description на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Google обрабатывает данные real-time - сразу после обхода. В дальнейшем идёт только пересчёт по разным индексам, в основном уже не текстового плана онпейдж.
    Яндекс считает апдейтами - что текстовые, что те же ПФ. Сроки разнятся от сайта к сайту.
    В принципе не думаю, что смена description могла как-то всерьёз повлиять на текстовую релевантность странички. Это совсем мелкий фактор. За неделю точно ничего измениться по этому не должно - если, кончно, дескрип не дичайше переспамленный и настолько "левый", что это повлияло на CTR на выдаче. Если ПС считают, что дескрип плохой - они его просто не выведут. Кроме того, вывод очень зависит от запроса, общего и универсального сниппета может и не быть - это динамический параметр, не статика.
    В общем, я бы не дёргался раньше времени и подождал минимум месяц, параллельно с этим анализируя другие возможные причины потери позиций.
    Ответ написан
    Комментировать
  • Что такое - битые ссылки СЕО?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Под "битыми ссылками" понимаются ссылки, ведущие на несуществующие URL. Чаще всего речь идёт об обычных ошибках 404.
    Выгрузить список таких ссылок можно с использованием любого SEO-парсера. Чаще всего используется Screaming Frog SEO Spider (платный) или его бесплатный российский аналог SiteAnalyzer.
    Однако надо иметь в виду, что битые ссылки в рамках сайта - это ещё не всё. Тот же Google заботливо хранит все обнаруженные им ранее URL по вашему сайту в своих индексах, и может периодически пытаться заходить по давно неуществующим адресам спустя годы после обнаружения. Такое бывает после смены структуры сайта при редизайне, много раз наблюдал. Выявить такие URL можно только через консоль Google для вебмастеров и через серверные логи.
    В чём проблема с битыми ссылками: они могут оставаться в индексе поисковых систем и показываться на выдаче по запроса пользователей. При переходе пользователь столкнётся со страницей "Не найдено".
    Второй негативный момент - это напрасный расход ресурсов поисковых роботов на обход. У них есть лимиты на обход, и если робот будет тратить их на обход несуществующих страниц - он не обойдёт существующие и важные.
    И третья проблема - это риск получить метку технически неоптимизированного сайта при слишком высоком проценте ошибок такого рода. В этом случае сайт будет понижен в ранжировании целиком, на уровне хоста.
    Ответ написан
    Комментировать
  • Редирект как правильно настроить?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Непонятно, а зачем вам вообще редирект? Редирект - это "страница постоянно перемещена туда-то" или "перемещена временно". В вашем случае достаточно прямых ссылок, никакие редиректы не нужны - если, конечно, вы не хотите, чтобы поисковые роботы сломали себе ноги, а сайт болтался где-то в самом конце выдачи.
    Ответ написан
    Комментировать
  • Что делает сеошник после полугода работы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Полгода работы - это только завершение стартового этапа и подведение итогов по оценке выбранной на старте стратегии. Да и то, в зависимости от проекта - динамики за такой срок можно и не добиться (в конкурентных и сложных темах, на кривом сайте и т.п.).
    У вас странный подход к продвижению: нет необходимости в регулярной публикации контента, как и в закупке ссылок. Это очень зависит от тематики, проекта и целевой поисковой системы. И нельзя завершить оптимизацию как таковую:
    • за полгода, как правило, многие запросы успевают основательно сместиться по эталонному корпусу, и семантическое ядро надо корректировать;
    • в актуальных условиях загнать посадку в пределы топ-30 вполне может занимать квартал и больше. А вам ещё до топ-10 её прокачивать с помощью ПФ и ссылочного;
    • если не прибегать к простым и грубым методам типа ссылочного и накруток ПФ, то раскачка идёт за счёт сотен малых метрик, чей кумулятивный эффект будет учтён на уровне хостовый апдейтов - а это, примерно, годик;
    • нет никаких общих средств и методов, работающих всегда и для всех. Есть гипотезы, которые надо тестировать, и зачастую для этого нужна набранная поисковая статистика. Например, данные логов, статистика по активной поисковой семантике из консолей и систем аналитики и т.п.

    Простой пример: со старта вы считаете, что для вас наиболее интересен какой-то частотный ключ. По итогам продвижения за период на анализе взвешенной частотности выясняете, что ключ в принципе неконверсионный и приводит к вам мусорный трафик - в отличие от другого, менее частотного и незаметного.
    И я не рассматриваю тут более очевидные причины продолжать оптимизацию - конкурентов, изменения в поисковых алгоритмах, обычные тормоза с индексацией и расчётами основных метрик.
    И да, не каждому проекту в принципе нужны постоянные работы по оптимизации. Если "сеошник" начинает высасывать их из пальца - ставьте работы на паузу, или меняйте тариф.
    Ответ написан
    Комментировать
  • Как добавить мета теги под фильтры для Wordpressa?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Такой функционал решается плагинами на большинстве движков для интернет-магазинов. Классика - это Сотбит SEO умного фильтра для Битрикс.
    Все эти плагины - платные, ценник - от 7 до 15 тысяч рублей. Функционал прост: при выборе фильтров идёт 301-й редирект со страницы фильтратора (неуникальной) на особую страницу, где выводятся отфильтрованные товары, но на уникальных метатегах, с уникальным заголовком h1, своими текстовыми блоками.
    Насколько я помню, для WooCommerce был такой плагинчик, но довольно кривой.
    Рекламщикам стоило бы закатать губу: задачка довольно сложная, и разработка кастомного модуля может оказаться подороже всего сайта. Хотя, собственно, вот сейчас без такого модуля сайт магазина уже никуда не поедет.
    Для примера реализации на кастоме (там не WP) можно посмотреть каталог bestceramic.ru: там фактически любое сочетание фильтров отдаст не страницу фильтрации, а полноценную посадочную страницу. Однако надо понимать, что чаще всего речь идёт не об автогенерации на шаблонах. Нужно внести условия под заданные фильтры, автогенерация будет только во вред.
    Ответ написан
    Комментировать
  • Как лучше организовать вывод 404 ошибки?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Никогда не используйте редиректы без необходимости. Тем более - временный (302). В этом случае поисковик оставляет в индексе старый (уже убитый или несуществующий в вашем случае) URL.
    Да и банально: и Яндекс, и Гугл резко сократили ресурсы на обходы и обсчёт метрик, а вы роботов гоняете двойными переходами.
    Добро, если битых урлов в рамках сайта мизер или и вовсе нету. Но на работающем интернет-магазине, например, так делать точно не стоит. Нет страницы - 404. Удалена - 410. Перемещена - 301. 302 лучше вообще не использовать без крайней нужды.
    Ответ написан
    Комментировать
  • Важна ли уникальность описания карточек товара?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Нет, критически важной уникальность карточек товаров не является, хотя неуникальность снижает общую ценность таких страниц. И это логично: вот 50 сайтов, все взяли товары из одного источника - в чём УТП?
    Кроме того, в большинстве случаев сами по себе карточки товаров трафик из поиска не привлекают - если речь не о каких-нибудь смартфонах или любой другой сферы, где востребованы не категории, а именно конкретные модели товаров.
    Если вы продаёте не смартфоны или видеокарты, я бы больший акцент сделал на проработке товарных категорий, а описания товарных карточек - по мере возможностей и ресурсов.
    Кроме того, не забывайте, что уникальность контента определяется не только описаниями товара. Выводите вспомогательные блоки (похожие товары, популярное, отзывы) - вот и будет уник даже на описаниях от производителя.
    Ответ написан
    Комментировать
  • Как закрыть в noindex один выпадающий пункт меню на WP?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не стоит закрывать в noindex то, что выводится в меню - хотя бы потому, что в индекс оно всё равно пойдёт по совокупности сигналов о важности URL. Любая директива - это не приказ, а просьба, рекомендация со стороны пользователя к ПС. И в этом случае велика вероятность того, что ПС эту просьбу проигнорируют.
    Ответ написан
    Комментировать
  • Как правильно закрывать от индексаций страницы для yandex?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Ну, во-первых, если запрещать сканирование в robots.txt, то яндексбот не узнает, что страничку индексировать не надо. Ему запрет скачивать её в robots.txt должен помешать. Если эти страницы уже в индексе - так ведь там и зависнут.
    Во-вторых, я не понимаю смысла самой манипуляции. Там hreflang надо прописать правильно, закрывать ничего не нужно. То, что не получит трафика из Яндекса - он и сам деиндексирует за милую душу. На ранжировании русской версии не скажется.
    Ну, и как выше совершенно справедливо отметили - 3 дня сейчас это вообще ни о чём. В 2022 Яндекс резко сократил ресурсы на обход и расчёты, плюс его колбасит привычно месяцами. так что не стоит спешить с выводами.
    Ответ написан
  • Есть ли смысл делать интернет магазин на определенный регеон?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Только так и стоит, если вам интересен канал SEO и Яндекс. Для Яндекса нет региона "Россия" - тут буквально, кто везде, тот нигде. Поэтому вам нужно продумать, как вы будете работать с региональностью (папка или субдомен), учесть нужные топонимы в текстовом контенте (тайтл, дескрипшен, контакты и т.п.), настроить региональность через Яндекс-Вебмастер и Яндекс-Бизнес - и будет хорошо.
    С Гугл сложнее, там другие принципы работы с региональностью, субдомены он в принципе индексирует с большим скрипом. Но с папками работает хорошо, плюс в помощь - Google Мой Бизнес и топонимы.
    Ответ написан
    1 комментарий