Ответы пользователя по тегу Поисковая оптимизация
  • Микроразметка не видна - как исправить?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Добавлю пару моментов:
    • Помимо гугловского валидатора есть ещё официальный: validator.schema.org. Проверять стоит и там, и там. У гугл немножко своя спецификация, и как выше уже отметили, какие-то поля он может считать обязательными, тогда как в общей спецификацией никаких проблем не будет.
    • Вы используете RDFa. Её бы уже потихоньку заменять на JSON-LD. Формально RDFa считывается раньше, но ПС рекомендуют именно JSON-LD. Есть вероятность, что алго, учитывающий семантическую микроразметку, заточен теперь именно под этот синтаксис.
    Ответ написан
    1 комментарий
  • Как найти найти источник seo-вируса на сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вам залили дорвей. Это не вирус как таковой, антивирусы на него не среагируют. Просто спамный сайт в рамках вашего сайта.
    Ищите сам дор - хоть по дате. Заодно - и шелл, оболочку, через которую дорвей залили.
    Ответ написан
    Комментировать
  • Почему индексируется страницы закрытые тегом robots и в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
    Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
    Убирайте Disallow в robotx.txt, решайте вопрос метатегами.
    Ответ написан
    Комментировать
  • Почему неуникальные статьи занимают первые места?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Важность уникальности малость раздута, и сильно уступает более весомым метрикам: хостовым, пользовательским и т.п.
    При этом поисковик теоретически может знать, где контент был опубликован раньше. Но более посещаемый и авторитетный ресурс всегда будет в приоритете.
    Ответ написан
    Комментировать
  • Сайт с www ведёт на страницу хостинга, а без www работает нормально. Нужно ли делать редирект?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Да, такие URL надо склеивать с главным зеркалом через редиректы, как уже сказали выше.
    Ответ написан
    Комментировать
  • Несуществующие URL ведут на главную страницу. Как это может повлиять на SEO?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вероятно - никак. Чтобы это стало проблемой, нужны внутренние или внешние ссылки, которые попадут в поле зрения поисковика, и он сочтёт такие URL полными дублями. Но и в этом случае это слишком слабый сигнал, чтобы поисковик стал вносить их в индекс и писать нехорошие слова в своей консоли.
    Хотя, разумеется, порядка ради надо настроить 404.
    Ответ написан
    Комментировать
  • Как проверить все URL sitemap на наличие в идекса в Google?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Можно взять Screaming Frog SEO Spider. Там есть коннектор к Search Console. Вытягиваем по API данные, сопоставляем с реальными данными по сайту. Профит.
    Ну или как уже сказано выше - просто выгружаете из консоли и в "Эксель" сопоставляете.
    Ответ написан
    Комментировать
  • 304 ответ сервера в Google Search Console, нормально?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Речь про кэш Гугла. Ткнулся на сайт - сервер ответил, что изменений нет. Ответ получен из кэша, всем хорошо.
    Ответ написан
    Комментировать
  • Как убрать статус маловостребованной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Статус МПК говорит только о том, что у Яндекса нет достаточно объёма для просчётов в рамках BrowseRank. Причин может быть много разных, но все они упираются в трафик. Дайте ему этот трафик. Любой, который он сможет увидеть: из рекламы, или поведенческих роботов, или из соцсетей. Много не нужно. В среднем, по моим наблюдениям, достаточно 2-5 заходов в месяц (даже по внутренним ссылкам на сайте) на URL.
    Ботный трафик - самый дешевый. И не надо смотреть на "роботность". "Роботность" - это метрика качества трафика. Если роботность высока, это значит, что Яндекс просто не понимает, кто тут ходит - люди, роботы, и если люди - то кто это такие и чем интересуются. В данном случае роботность вообще ни на что не влияет, тем более, что у вас информационная страничка, не магазин.
    Переписывать ничего не надо, это ничего не даст. Были времена, когда Яндекс мог подкинуть обновленный контент в топы, используя своего "бандита" - и тогда можно было получить кратковременный трафик из топа. Это бывает и сейчас, но крайне редко, и рассчитывать на это не стоит.
    Ответ написан
    1 комментарий
  • Может тег h2 идти сразу после h1 без разбивки текстом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет проблемы. Заголовок первого уровня не должен обязательно отделяться от заголовка второго уровня каким-то текстом, если логика страницы именно такова.
    Структура HTML не привязана жёстко к тексту исключительно, но даже если речь исключительно о текстовом контенте - логика проста. H1 - это про всю страницу, h2 - про конкретный её фрагмент.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан
  • Насколько сейчас актуальна html карта сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    HTML-карта - способ внутренней перелинковки. Сократить глубину вложенности, например. Это ещё и недурной тип навигации, которым, правда, мало кто пользуется.
    Лишним точно не будет, хотя и обязательным тоже не назовёшь. Просто полезный инструмент, если вы знаете, для чего он нужен.
    Ответ написан
    Комментировать
  • Нужно ли убирать rel="next" с основной страницы если добавляем noindex для страниц пагинации?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Логика простая.
    ПС должны понимать, что эти вот страницы пагинации - это вот эта первая (целевая) страница. Для этого и нужны эти link rel=...
    Закрывать от индексирования пагинацию - путь к потере сканирования большого объёма сайта, ссылок на товары/инфо-странички. Зачем?
    Ваша задача - склеить страницы пагинации с целевой страничкой и не потерять пути сканирования сайта роботом, а с ними - и индексацию карточек.
    Подытожу: не надо сносить теги пагинации, это зло и технические ошибки в настройках сайта.
    Ответ написан
    Комментировать
  • Какие есть сервисы для проверки наложения "новый" фильтр от яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет такого фильтра, его в "Пиксель Плюс" придумали.
    А все во эти вот сервисы обнаруживают исключительно проблемы текстового характера на документе в Яндексе. Полезно, но только как инсайт, а не диагноз.
    Ответ написан
    Комментировать
  • Как найти все страницы с дублированным контентом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Screaming Frof SEO Spider, как уже отметили выше, наотличненько находит не только полные, но и частичные дубли. Можно задать порог сходства, по умолчанию - от 90%.
    Ответ написан
    Комментировать
  • Есть какие то текстовые редакторы анализа SEO текста прям во время написания статей?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Максимально похожее - "Тургенев". Платный.
    Но вообще я бы в принципе такой ерундой не парился, если речь о копирайтинге, это всё даже не вчерашний день - тошноты все эти и прочая "вода". Толковый экспертный текст в инфостиле в доработках не нуждается.
    Ответ написан
  • Что будет в случае, если запретить в robots.txt к индексации файлы JS?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Что будет?
    Криво обработанная вёрстка, жалобы, что сайт не оптимизирован под смартфоны - если, конечно, JS в вёрстке используется (а где сейчас не используется?).
    А если какой-то контент средствами JS выводится или обновляется - то его робот не увидит и не учтёт в расчётах.
    Стоит пристально изучить, какие JS однозначно стоит роботам показывать, а без каких они могут и обойтись, чтобы не грузить железяку ненужным. Я, к примеру, обычно разрешаю для сканирования все JS скопом.
    Ответ написан
    Комментировать
  • Сколько может быть ссылок в sitemap.xml?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Отталкивайтесь от ограничений Гугла. 50 тысяч адресов.
    Для удобства стоит в принципе поделить всю пачку на более осмысленные множества: категории, товары, статьи, служебное. Для Гугла - ещё и картинки, Яндекс такое не понимает.
    В принципе стоит разобраться с тем, зачем поисковикам нужен sitemap.xml: это список URL, которые должны попасть в индекс поисковиков, и которые поисковый робот должен хоть иногда обходить с каким-то приоритетом.
    В конце концов, возьмите сайты из топов и посмотрите, как всё реализовано. Всё давно известно и опробовано на практике.
    Ответ написан
    Комментировать
  • Как сделать микроразметку Shema и Open Graph?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Для начала стоит понять, для чего микроразметка нужна.
    Вот у вас товар. А вот поле с названием, вот - с артикулом, ценой, описанием. Выводим по заданной спецификации. Меняются данные в поле - меняются данные в микроразметке.
    Уточню: смотрите на синтаксис. Тот, кто ставил ТЗ, чуть перемудрил. Разметка хардкодом не нужна (RDFa подразумевается). Нужен JSON-LD.
    Всё прочее смотрите в официальных доках. Кроме них есть тонны сервисов, которые помогут сформировать разметку для чего угодно, только разберитесь, как внедрить.
    Ответ написан
    Комментировать
  • Сколько времени хранить старый домен при переезде на новый?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Представители Гугл упоминали, что полная переклейка составляет год. После этого старый домен можно утилизировать, он бесполезен.
    Я бы в любом случае так делать не стал, если уже есть пристойная ссылочная масса на старый домен. Его можно использовать как прокси-домен, и в таком виде он всё ещё может принести немало пользы, если вы занимаетесь линкбилдингом. Подвязан - хлеба не просит, денег запредельных не тратит.
    Ответ написан
    Комментировать