• Robots.txt в индексе, это нормально?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    У Гугла много индексов, выполняющих служебные функции. О каком индексе речь?
    Если robots.txt попадает в поисковую выдачу - это о каких-то проблемах с форматом, баге самого Гугл или о внешних сигналах, которые заставили Гугл думать, что у файлика есть какая-то самостоятельная ценность. Для примера: файлик благодаря контенту или оформлению получил внешние ссылки и его пошёл изучать народ.
    В любом случае - без вспомогательных данных тут только гадать на кофейной гуще.
    Ответ написан
    Комментировать
  • Как убрать ?no_redirect=true из ссылки в Google Search Console?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Canonical - это только рекомендация, и Гугл её динамит очень просто. Я бы попробовал выяснить, откуда вообще он выкопал ссылку с параметром и попытался её грохнуть. И выяснить, почему он не видит (или не признает) canonical - а это обычно какие-то сигналы важности на неканонический URL - скажем, те же ссылки.
    Многие вообще блокируют параметры такого рода на уровне robots.txt, что не самое красивое, но бывает что и единственное решение проблемы.
    Ответ написан
    5 комментариев
  • Микроразметка Schema org, что можно указать в поле price?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Ставьте минимальную. На сайте укажите, что цена - вариативная, не оферта.
    В принципе проблема такого рода с микроразметкой к значительным не относится - ну, максимум не выведется что-то в сниппет. Но микроразметка сниппетами не ограничивается.
    Надо понимать, что товарная микроразметка в рамках эко-системы Google имеет наибольшее отношение к Google Merchant, а там цена - обязательное поле. Как в фид выводить товар, если у него нет важнейшего атрибута? Так что ищите компромисс, цен "по запросу" не бывает. Обозначайте хотя бы минималку (например).
    Ответ написан
    2 комментария
  • Как убрать дубли с помощью canonical?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Частичные копии - не технические дубли. Поисковая система такой canonical может запросто проигнорировать. Вопрос правильнее решить настройками шаблонизации мета и (или) уникализации контента.
    Кроме того, ситуация может иметь временный характер, тем более - в Яндекс. Он постоянно что-то пересчитывает, закидывает в индекс и выбрасывает - иначе не умеет.
    Ответ написан
    Комментировать
  • Уменьшится ли сила сайта при добавлении ссылок популярных ресурсов?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вообще говоря, ссылки-то - на нетематические ресурсы.
    В любом случае - криминала никакого нету, весь вопрос - нужны ли эти ссылки, и стоит ли роботов по этим ссылкам отправлять. В вашем случае - пометьте их как nofollow, как рекомендацию для робота не переходить при сканировании сайта, этого достаточно.
    Ответ написан
  • Микроразметка не видна - как исправить?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Добавлю пару моментов:
    • Помимо гугловского валидатора есть ещё официальный: validator.schema.org. Проверять стоит и там, и там. У гугл немножко своя спецификация, и как выше уже отметили, какие-то поля он может считать обязательными, тогда как в общей спецификацией никаких проблем не будет.
    • Вы используете RDFa. Её бы уже потихоньку заменять на JSON-LD. Формально RDFa считывается раньше, но ПС рекомендуют именно JSON-LD. Есть вероятность, что алго, учитывающий семантическую микроразметку, заточен теперь именно под этот синтаксис.
    Ответ написан
    1 комментарий
  • Как найти найти источник seo-вируса на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вам залили дорвей. Это не вирус как таковой, антивирусы на него не среагируют. Просто спамный сайт в рамках вашего сайта.
    Ищите сам дор - хоть по дате. Заодно - и шелл, оболочку, через которую дорвей залили.
    Ответ написан
    Комментировать
  • Почему индексируется страницы закрытые тегом robots и в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
    Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
    Убирайте Disallow в robotx.txt, решайте вопрос метатегами.
    Ответ написан
    Комментировать
  • Почему неуникальные статьи занимают первые места?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Важность уникальности малость раздута, и сильно уступает более весомым метрикам: хостовым, пользовательским и т.п.
    При этом поисковик теоретически может знать, где контент был опубликован раньше. Но более посещаемый и авторитетный ресурс всегда будет в приоритете.
    Ответ написан
    Комментировать
  • Сайт с www ведёт на страницу хостинга, а без www работает нормально. Нужно ли делать редирект?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Да, такие URL надо склеивать с главным зеркалом через редиректы, как уже сказали выше.
    Ответ написан
    Комментировать
  • Несуществующие URL ведут на главную страницу. Как это может повлиять на SEO?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вероятно - никак. Чтобы это стало проблемой, нужны внутренние или внешние ссылки, которые попадут в поле зрения поисковика, и он сочтёт такие URL полными дублями. Но и в этом случае это слишком слабый сигнал, чтобы поисковик стал вносить их в индекс и писать нехорошие слова в своей консоли.
    Хотя, разумеется, порядка ради надо настроить 404.
    Ответ написан
    Комментировать
  • Как проверить все URL sitemap на наличие в идекса в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Можно взять Screaming Frog SEO Spider. Там есть коннектор к Search Console. Вытягиваем по API данные, сопоставляем с реальными данными по сайту. Профит.
    Ну или как уже сказано выше - просто выгружаете из консоли и в "Эксель" сопоставляете.
    Ответ написан
    Комментировать
  • 304 ответ сервера в Google Search Console, нормально?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Речь про кэш Гугла. Ткнулся на сайт - сервер ответил, что изменений нет. Ответ получен из кэша, всем хорошо.
    Ответ написан
    Комментировать
  • Как побороться со спамом в wp contact form 7?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Akismet неплохо справляется. К этому - ещё и обязательную модерацию комментариев от не зарегистрированных (и не одобренных). Рекапча давно не спасает, тем более, что любой нормальный ботовод использует сервисы разгадывания.
    Спам на WP фактически неистребим, такова специфика этой CMS. Проблема упирается по факту только в риски прямой публикации спама с исходящими ссылками, поэтому этой возможности спамеров и надо лишить.
    По моим прикидкам, весь нынешний интернет-трафик - это процентов на 80 боты, так что если по каким-то ключам вы попадаете в топы, придут и боты гадить в формы и комменты. Неизбежное зло. Проще всего просто регулярно вычищать мусор. Волков бояться - в лес не ходить.
    Ответ написан
  • Маркировка ссылки в подвале сайта для разработчиков и seo студий нужно или нет?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос упирается в оферту или УТП. Безанкорка - это просто подпись (мы делали этот сайт). А вот коммерческий анкор ("Разработка и продвижение сайтов", например) - вполне себе реклама в такой формулировке.
    Если речь о такой маркировке - можно пока не дёргаться до первых прецедентов. Их пока нет (и я сомневаюсь, что будут). Закон сделан против блогеров, чьи доходы идут мимо налоговой, а не против любой интернет-рекламы.
    Ответ написан
    Комментировать
  • Как в админке Wordpress найти нужные данные?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Я бы поискал через базу данных. Там же, в общем-то, можно и поменять на другой эмейл.
    Ответ написан
    Комментировать
  • Действительно ли так важны в статьях на сайтах слова "введение" и "вывод"?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Лид ("введение") и summary (выводы) - это просто хороший способ форматировать текст. Люди в интернете не читают, они сканируют глазами. И такое структурирование текста ровным счётом никак не влияет на поисковую оптимизацию, хотя, конечно же, грамотно составленное "введение" имеет больший контекстный "вес" как для поисковых систем, так и для людей. Его поисковая система может вывести в сниппет, а люди по его содержимому могут понять, стоит ли читать статью.
    Если вам категорически не нравится такая структура - не обязательно её придерживаться. Это просто хорошая практика, но вовсе не канон.
    Ответ написан
    Комментировать
  • Как убрать статус маловостребованной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Статус МПК говорит только о том, что у Яндекса нет достаточно объёма для просчётов в рамках BrowseRank. Причин может быть много разных, но все они упираются в трафик. Дайте ему этот трафик. Любой, который он сможет увидеть: из рекламы, или поведенческих роботов, или из соцсетей. Много не нужно. В среднем, по моим наблюдениям, достаточно 2-5 заходов в месяц (даже по внутренним ссылкам на сайте) на URL.
    Ботный трафик - самый дешевый. И не надо смотреть на "роботность". "Роботность" - это метрика качества трафика. Если роботность высока, это значит, что Яндекс просто не понимает, кто тут ходит - люди, роботы, и если люди - то кто это такие и чем интересуются. В данном случае роботность вообще ни на что не влияет, тем более, что у вас информационная страничка, не магазин.
    Переписывать ничего не надо, это ничего не даст. Были времена, когда Яндекс мог подкинуть обновленный контент в топы, используя своего "бандита" - и тогда можно было получить кратковременный трафик из топа. Это бывает и сейчас, но крайне редко, и рассчитывать на это не стоит.
    Ответ написан
    1 комментарий
  • Может тег h2 идти сразу после h1 без разбивки текстом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет проблемы. Заголовок первого уровня не должен обязательно отделяться от заголовка второго уровня каким-то текстом, если логика страницы именно такова.
    Структура HTML не привязана жёстко к тексту исключительно, но даже если речь исключительно о текстовом контенте - логика проста. H1 - это про всю страницу, h2 - про конкретный её фрагмент.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан