Ответы пользователя по тегу Поисковая оптимизация
  • Почему неуникальные статьи занимают первые места?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Важность уникальности малость раздута, и сильно уступает более весомым метрикам: хостовым, пользовательским и т.п.
    При этом поисковик теоретически может знать, где контент был опубликован раньше. Но более посещаемый и авторитетный ресурс всегда будет в приоритете.
    Ответ написан
    Комментировать
  • Сайт с www ведёт на страницу хостинга, а без www работает нормально. Нужно ли делать редирект?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Да, такие URL надо склеивать с главным зеркалом через редиректы, как уже сказали выше.
    Ответ написан
    Комментировать
  • Несуществующие URL ведут на главную страницу. Как это может повлиять на SEO?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вероятно - никак. Чтобы это стало проблемой, нужны внутренние или внешние ссылки, которые попадут в поле зрения поисковика, и он сочтёт такие URL полными дублями. Но и в этом случае это слишком слабый сигнал, чтобы поисковик стал вносить их в индекс и писать нехорошие слова в своей консоли.
    Хотя, разумеется, порядка ради надо настроить 404.
    Ответ написан
    Комментировать
  • Как проверить все URL sitemap на наличие в идекса в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Можно взять Screaming Frog SEO Spider. Там есть коннектор к Search Console. Вытягиваем по API данные, сопоставляем с реальными данными по сайту. Профит.
    Ну или как уже сказано выше - просто выгружаете из консоли и в "Эксель" сопоставляете.
    Ответ написан
    Комментировать
  • 304 ответ сервера в Google Search Console, нормально?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Речь про кэш Гугла. Ткнулся на сайт - сервер ответил, что изменений нет. Ответ получен из кэша, всем хорошо.
    Ответ написан
    Комментировать
  • Как убрать статус маловостребованной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Статус МПК говорит только о том, что у Яндекса нет достаточно объёма для просчётов в рамках BrowseRank. Причин может быть много разных, но все они упираются в трафик. Дайте ему этот трафик. Любой, который он сможет увидеть: из рекламы, или поведенческих роботов, или из соцсетей. Много не нужно. В среднем, по моим наблюдениям, достаточно 2-5 заходов в месяц (даже по внутренним ссылкам на сайте) на URL.
    Ботный трафик - самый дешевый. И не надо смотреть на "роботность". "Роботность" - это метрика качества трафика. Если роботность высока, это значит, что Яндекс просто не понимает, кто тут ходит - люди, роботы, и если люди - то кто это такие и чем интересуются. В данном случае роботность вообще ни на что не влияет, тем более, что у вас информационная страничка, не магазин.
    Переписывать ничего не надо, это ничего не даст. Были времена, когда Яндекс мог подкинуть обновленный контент в топы, используя своего "бандита" - и тогда можно было получить кратковременный трафик из топа. Это бывает и сейчас, но крайне редко, и рассчитывать на это не стоит.
    Ответ написан
    1 комментарий
  • Может тег h2 идти сразу после h1 без разбивки текстом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет проблемы. Заголовок первого уровня не должен обязательно отделяться от заголовка второго уровня каким-то текстом, если логика страницы именно такова.
    Структура HTML не привязана жёстко к тексту исключительно, но даже если речь исключительно о текстовом контенте - логика проста. H1 - это про всю страницу, h2 - про конкретный её фрагмент.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан
  • Насколько сейчас актуальна html карта сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    HTML-карта - способ внутренней перелинковки. Сократить глубину вложенности, например. Это ещё и недурной тип навигации, которым, правда, мало кто пользуется.
    Лишним точно не будет, хотя и обязательным тоже не назовёшь. Просто полезный инструмент, если вы знаете, для чего он нужен.
    Ответ написан
    Комментировать
  • Нужно ли убирать rel="next" с основной страницы если добавляем noindex для страниц пагинации?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Логика простая.
    ПС должны понимать, что эти вот страницы пагинации - это вот эта первая (целевая) страница. Для этого и нужны эти link rel=...
    Закрывать от индексирования пагинацию - путь к потере сканирования большого объёма сайта, ссылок на товары/инфо-странички. Зачем?
    Ваша задача - склеить страницы пагинации с целевой страничкой и не потерять пути сканирования сайта роботом, а с ними - и индексацию карточек.
    Подытожу: не надо сносить теги пагинации, это зло и технические ошибки в настройках сайта.
    Ответ написан
    Комментировать
  • Какие есть сервисы для проверки наложения "новый" фильтр от яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет такого фильтра, его в "Пиксель Плюс" придумали.
    А все во эти вот сервисы обнаруживают исключительно проблемы текстового характера на документе в Яндексе. Полезно, но только как инсайт, а не диагноз.
    Ответ написан
    Комментировать
  • Как найти все страницы с дублированным контентом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Screaming Frof SEO Spider, как уже отметили выше, наотличненько находит не только полные, но и частичные дубли. Можно задать порог сходства, по умолчанию - от 90%.
    Ответ написан
    Комментировать
  • Есть какие то текстовые редакторы анализа SEO текста прям во время написания статей?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Максимально похожее - "Тургенев". Платный.
    Но вообще я бы в принципе такой ерундой не парился, если речь о копирайтинге, это всё даже не вчерашний день - тошноты все эти и прочая "вода". Толковый экспертный текст в инфостиле в доработках не нуждается.
    Ответ написан
  • Что будет в случае, если запретить в robots.txt к индексации файлы JS?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Что будет?
    Криво обработанная вёрстка, жалобы, что сайт не оптимизирован под смартфоны - если, конечно, JS в вёрстке используется (а где сейчас не используется?).
    А если какой-то контент средствами JS выводится или обновляется - то его робот не увидит и не учтёт в расчётах.
    Стоит пристально изучить, какие JS однозначно стоит роботам показывать, а без каких они могут и обойтись, чтобы не грузить железяку ненужным. Я, к примеру, обычно разрешаю для сканирования все JS скопом.
    Ответ написан
    Комментировать
  • Сколько может быть ссылок в sitemap.xml?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Отталкивайтесь от ограничений Гугла. 50 тысяч адресов.
    Для удобства стоит в принципе поделить всю пачку на более осмысленные множества: категории, товары, статьи, служебное. Для Гугла - ещё и картинки, Яндекс такое не понимает.
    В принципе стоит разобраться с тем, зачем поисковикам нужен sitemap.xml: это список URL, которые должны попасть в индекс поисковиков, и которые поисковый робот должен хоть иногда обходить с каким-то приоритетом.
    В конце концов, возьмите сайты из топов и посмотрите, как всё реализовано. Всё давно известно и опробовано на практике.
    Ответ написан
    Комментировать
  • Как сделать микроразметку Shema и Open Graph?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Для начала стоит понять, для чего микроразметка нужна.
    Вот у вас товар. А вот поле с названием, вот - с артикулом, ценой, описанием. Выводим по заданной спецификации. Меняются данные в поле - меняются данные в микроразметке.
    Уточню: смотрите на синтаксис. Тот, кто ставил ТЗ, чуть перемудрил. Разметка хардкодом не нужна (RDFa подразумевается). Нужен JSON-LD.
    Всё прочее смотрите в официальных доках. Кроме них есть тонны сервисов, которые помогут сформировать разметку для чего угодно, только разберитесь, как внедрить.
    Ответ написан
    Комментировать
  • Сколько времени хранить старый домен при переезде на новый?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Представители Гугл упоминали, что полная переклейка составляет год. После этого старый домен можно утилизировать, он бесполезен.
    Я бы в любом случае так делать не стал, если уже есть пристойная ссылочная масса на старый домен. Его можно использовать как прокси-домен, и в таком виде он всё ещё может принести немало пользы, если вы занимаетесь линкбилдингом. Подвязан - хлеба не просит, денег запредельных не тратит.
    Ответ написан
    Комментировать
  • Считает ли поисковики мусорными, те страницы, в которых нет привязок привязок фильтров в тексте при использовании SEO-фильтра?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сформулировано крайне путано, но предположу, что речь всё-таки о тегировании страницы в рамках избавления от дублирования.
    Если поисковая система не может увидеть разницу между разными URL - надо в принципе понять, есть ли эта разница фактически. Для этого можно посчитать запросный кворум, сопоставить релевантность этих страниц одним и тем же запросам в сравнении с эталонным корпусом, в принципе глазками посмотреть - разница-то есть?
    Если речь о всё таки разном контенте, просто отличающимся минимально (название товара, артикул, цена) - можно попробовать решить проблему с помощью микроразметки и вывода каких-то вспомогательных блоков (похожие товары, тот же бренд, отзывы и т.п.).
    За счёт одних только тегов выехать можно. Но они должны не только кардинально отличаться от аналогичных на нечетком дубле, но ещё и не выламываться за пределы заданной матрицы. ПС должны чётко видеть семантические связи.
    Ну, а на следующих итерациях вопрос будет решаться на уровне пользовательских сигналов - куда пойдёт трафик по ожидаемым запросам и будет ли он конверсионным.
    Ответ написан
    Комментировать
  • Ссылка в заголовке или заголовок в ссылке — как правильно/лучше?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    А цель-то какова?
    Вообще говоря, вариант один: ссылка должна оборачивать заголовок, не наоборот. Это всё, скорее, про валидацию, и про учёт ссылочных анкоров. Но если речь об учете этих самых анкоров в рамках текстового анализа - разницы особой нету.
    Ответ написан
    Комментировать
  • Ссылка без анкора на сайте для SEO — хорошо или плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Безанкорные ссылки в рамках сайта не нужны. Это пустая ссылка, она никак не описывает страницу-реципиент. Разумеется, никто наказывать за такое не будет, но вы попросту сливаете ссылочный вес в пустоту.
    Если вам так уж важна кликабельность всего блока - продублируйте ссылку. Пусть она оборачивает div, но в рамках div будет нормальная анкорная ссылка (у вас - на заголовке).
    Это нормальная практика.
    Ответ написан
    2 комментария