Задать вопрос
  • Почему посещения сайта ограничены?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Судя по сервисам видимости, у вас все запросы в зоне видимости - суб-НЧ. Тематика - сезонная, да ещё и инфо. В зоне видимости - 80 с чем-то страничек. Частотки - дай бог 20 запросов в месяц с топ-1.
    В инфо-сегменте сейчас вообще всё плохо, так что всё в норме.
    Ответ написан
    3 комментария
  • SEO-специалисты, вы сами проставляете крауд или заказываете за бюджет проекта?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не вижу никакого смысла в крауд-ссылках сейчас.
    Единственный расклад - лидген, но его никакой аутсорс не сделает, тут нужна реально хорошая площадка, реально прокачанная учётка и реальный продукт, чтобы продавать.
    Но точно не ссылочное.
    Ответ написан
    Комментировать
  • На сайте появились реклама, которая не должна быть?

    vpetrov
    @vpetrov
    частный SEO-специалист
    "Битва экстрасенсов", 666 сезон.
    Я принёс виру Вотану и бросил руны. Судя по всему, дело может быть вот в чём:
    а) У вас сайт взломан. Ищите шеллы и айфреймы, через которые реклама и вставляется.
    б) Вы используете незащищенные протоколы, которые позволяют некоторым провайдерам пихать пользователю рекламу. Сайт чист, но надо хоть SSL использовать.
    в) Поговорите с вебмастером. Видывал я таких, которые по тихому от владельца и майнеры втыкали на сайт, и целые доры. Формально - сайт госконторы, а на самом деле - микрокредитные организации.
    Ответ написан
    Комментировать
  • Стоит ли продолжать работать с региональными поддоменами?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Региональный субдомен хорош, если у вас в заданном городе есть физическая точка. Яндексу важна региональность, а не топоним в домене или тексте.
    Нет физических точек - сворачивайте субдомен, если в этом регионе ни продаж, ни трафика. Тем более, если речь про товары для дома.
    Ответ написан
    Комментировать
  • Почему Google и Yandex не распознают favicon и description?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Тайтлы и метатеги для поисковиков могут быть как угодно изменены поисковой системой под конкретный запрос. Обычно это первый признак того, что с ними что-то не так.
    Второй момент: обновляются ли они средствами JS и не им ли вообще выводятся. Да, ПС сейчас хорошо работают с JS-контентом, но индексирование его всё же идёт позже и отдельным потоком. Тут надо проверять по месту: что есть в "сыром" HTML, а что выводится в рендеринге.
    Что касается favicon – давно пора кроме favicon.ico добавлять иконки большего разрешения под разные устройства через manifest. От багов не спасёт, но проблем будет точно меньше. В обеих ПС сканирование идёт мобильными UA.
    Ответ написан
    Комментировать
  • Как выводить сайт в топ по определенным запросам?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не та логика.
    ПС ранжируют бизнесы, компании. Чтобы высоко ранжироваться по "купить авто" и конкурировать с "Рольфом", надо иметь бизнес, сравнимый с "Рольфом". А также домен, сравнимый возрастом, ссылочной массой, объёмом витальных запросов и т.п. с ним же. У крупных компаний в сеошку в месяц бюджет - до полмиллиона в рублях.
    Статьи – совсем мёртвая тема, если речь о коммерческом сегменте. А инфо-сегмент давно мёртв, там толкаются "Дзен", "КП", "Пикабу" и другие чудовища. А топы - не резиновые.
    Пощупайте нишу, посмотрите, что у вас уникального в коммерческом предложении и с хорошим ассортиментом, и делайте акцент на этом из числа не самых конкурентных запросов. Но на одном ссылочном и ПФ сейчас далеко не уехать.
    Ответ написан
    3 комментария
  • Почему Google назначает страницы с www каноническими?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Как уже сказали выше - настройте 301-й редирект с зеркал. Этого будет достаточно.
    А причины можно и отдельно поразбирать: скажем, на версии с www накопилось больше внешних или внутренних ссылок, пользовательских сигналов и т.п. Canonical - не приказ для роботов, а пожелание, и при ряде чисто технических моментов они могут игнорироваться.
    К слову: я бы ещё проверил, выводится ли Canonical в raw-html или это добавляется уже на уровне JS. Чисто из любопытства.
    Ответ написан
    Комментировать
  • Как создать аккаунт chrome без указания телефона?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Есть сервисы виртуальных номеров. Разовые. Получаешь подтверждающую CMS через сервис - процесс завершен.
    Номер второй раз использовать или застолбить за собой не получится, поэтому для дальнейших проблем к гугловскому аккаунту надо привязать какие-нибудь сторонние электропочты.
    Выбор стран там достаточно большой.
    Ответ написан
  • Как правильно настроить Key Collector?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Яндекс больше не позволяет парсить запросы из Вордстат. Для этого можно использовать API XMLRiver. Платный, разумеется.
    Запросы можно взять из Букварикс, он сейчас абсолютно бесплатен.
    Частотность парсится через Директ - там ничего не надо, просто яндексовые учётки с привязанным телефоном (одним на всех). Кабинет не нужен.
    Выдача парсится тоже по XML - либо с помощью xmlriver, либо с помощью xmlstock.
    Нюанс. Для парсинга из Директа всё же нужно брать Rucaptcha. Это очень дёшево, но без неё никак. Мне в среднем рублей 200 хватает на пару лет, при том, что парсить приходится много и регулярно.
    Ответ написан
    3 комментария
  • Как убрать дубликат главной страницы на тильда?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Во-первых, надо бы уточнить, какого рода дубликаты. Нужно выбрать один, канонический URL, по которому поисковые системы будут показывать главную, и настроить 301-е редиректы на него. Условно - с версий http, www и https://www надо настроить редиректы на версию https:// без www (если, конечно, выбрана эта версия).
    Второй вариант технических дублей - это URL с параметрами (обе поисковые системы сейчас активно лепят свои параметры с выдачи, Яндекс добавляет параметры к URL, которые нашёл через Метрику и т.п.). Это решается с помощью канонических адресов (Canonical) и Clean-param – в этом случае все адреса с параметрами будут склеены (консолидированы) с каноническим, и страница не потеряет ничего хорошего (поведенческие, ссылочные и т.п.).
    Как конкретно сделать всё это в рамках Tilda - другой вопрос, там возможности достаточно ограничены. Но для такой базы инструментарий должен быть.
    Ответ написан
    Комментировать
  • Если страница проиндексирована, значит внешние ссылки, размещенные на ней, тоже учтены поисковыми системами?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Формально - да. Если страница попала в индекс. то поисковая система должна обнаружить и ссылку.
    Но есть нюансы: тот же Гугл - это не единый индекс. Он в принципе может выдрать со страницы какие-то отдельные шинглы и даже хорошо их ранжировать, но прочее в базу не вносить. Или наоборот: после деиндексации за что-то основного контента ссылка с него может оставаться в базе данных поисковика и он по ней будет периодически ходить.
    Кроме того, то, что ссылка найдена и проиндексирована вовсе не значит, что она будет учтена в ранжировании.
    Но это уже дебри, малополезные для работы.
    Ответ написан
    Комментировать
  • Какой инструмент использовать для проверки всего сайта на фильтр?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Нет такого инструмента и быть не может.
    Начнём с того, что фильтр – это не "за что-то". Это просто про несоответствие каким-то критериям, ненабранный балл по каким-то параметрам.

    В вашем конкретном случае (сначала выросло, а потом упало) речь скорее всего идёт о простой ситуации: Яндекс вам авансом дал высокие позиции, потом оценил пользовательские сигналы, они ему не понравились - и вы позиции потеряли. Или просто посчитал более весомые метрики - и оказалось, что там всё плохо.

    Выясняйте последовательно: по каким запросам на какие страницы шёл трафик, который пропал. А дальше - методом исключения: технические моменты (доступность для роботов в первую очередь), текстовые характеристики, поисковый спрос (был хайп - и закончился), конкурентная среда, качество трафика (который был - но ушёл).

    О серьёзных нарушениях поисковые системы уведомляют через консоли вебмастеров. Всё остальное нуждается в точечных проверках.
    Ответ написан
    4 комментария
  • Можно ли дублировать статьи блога?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Дубли в поиске не нужны, так что при синдикации контента поисковая система признает одну версию канонической и будет показывать её. И вероятно, это будет наиболее раскормленная/трастовая/посещаемая площадка.
    Нет проблем с репостами, но имейте в виду: если вы хотите, чтобы ваш контент на сайте показывался в поиске – опубликуйте сначала там, дождитесь индексирования, и только потом транслируйте на другие площадки.
    Кроме того, для каждой площадки стоит адаптировать контент под устоявшийся там формат. То, что может зайти на Дзен, будет с гиканьем затоптано на "Хабре" – и наоборот.
    Исключение одно: если вы – новостной портал и транслируете свой контент в Яндекс-Новости или Discovery.
    Адаптировать при синдикации можно и средствами генеративных моделей.
    Ответ написан
    Комментировать
  • Как запретить в robots.txt параметры с #?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Незачем. # склеиваются (консолидируются) с каноническим URL.
    Ответ написан
    Комментировать
  • Как редирект с www. повлияет на позиции сайта в выдаче?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сайт на www и без www - два разных домена. Да, www - это именно домен. Так что всё тут - как при любой переклейке-переезде: не сразу, не всегда гладко, возможны проблемы.
    Решается редиректами (301) и потом немножко подождать. В нормальном случае проблем быть не должно.
    Ответ написан
    Комментировать
  • Key Collector работает только на ОС Windows, какой аналог вы порекомендуете для работы на Мас?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Кейколлектор можно использовать через виртуалку или Docker.
    Ну или разбираться, какие функции его нужны и искать инструментарий соответствующий - для парсинга, выгрузки данных по API, фильтрации, кластеризации и т.п.
    Но вообще говоря, полноценной замены нету: для работы с Google толку от него мало, сделан он под Яндекс, отсюда и проблемы.
    Ответ написан
    Комментировать
  • Каким должен быть H1 с т.з. Яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Тайтл - это своего рода корешок книги, где коротко и ёмко пишут то, что должен увидеть человек на поисковой выдаче, и то, что робот должен понять о содержании страницы. Что спрашивают (или должны спрашивать) - то и пишите. Сильно спамить нынешние алгоритмы там не дадут, они умеют формировать тайтлы самостоятельно, на базе проиндексированного по странице контента.
    H1 - это уже версия для людей, которые уже пришли на страницу, и по этому заголовку должны понять, туда ли они попали. Туда не надо добавлять "купить", "в Сызрани", "недорого" и т.п. Если ваш артикул важен для пользователя и это часть поисковых запросов - добавляйте куда надо. Многочисленные характеристики в заголовки выводить чаще всего незачем, выводите только критически важные данные, отличающие этот товар от всех остальных.
    Ответ написан
    1 комментарий
  • Почему Яндекс считает страницы сайта малоценными и мало востребованными?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не на то смотрите.
    МПК - это про трафик. Нет трафика - Яндекс не может оценить качество и присваивает МПК. Выход прост и понятен: решите проблему с этим самым трафиком.
    • Создайте контент, который этот трафик привлечет (выше Дмитрий эту тему уже затронул).
    • Трафик годится любой, не только из поиска. Можно использовать паразитный и из соцсетей
    • Найдите нишу, где конкуренция с каким-нибудь "Кинопоиском" невелика
    • Учтите, что есть запросы, заточенные только под видео, а поисковые системы могут ведь и не понять, что это самое видео у вас тоже есть
    Ответ написан
    Комментировать
  • Как сделать robots.txt и sitemap.xml на мультиязычном сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист
    robots.txt всегда лежит только и исключительно в корне сайта, никак иначе.
    Где лежит сайтмап - в общем-то, без разницы, тут строгих правил нет. Хотя разумнее держать его тоже в корне.
    Ответ написан
    Комментировать
  • Поврежденный файл с расширением .NEF, как открыть?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Фотографу надо поднимать данные с флешки и компа. Физически всё файло наверняка ещё живо, просто система отнимает у файла первую букву и файл считается удаленным.
    Если он не успел их физически перезаписать – можно поднять эти файлы, если не все, то как минимум часть. Нужен спецсофт. Если не может сам - пусть идёт в сервис, дело нехитрое.
    У меня как-то на работе в фотостудии системщик дамп снёс с 60 ГБ клиентских съёмок – 12 часов заняло восстановление, но подняли всё.
    Ответ написан
    Комментировать