Ответы пользователя по тегу Поисковая оптимизация
  • Как изменить ключевые слова сайта?

    SEOBot
    @SEOBot
    SEO Noob
    1) Если вы желаете чтобы старые ключи пропали вообще, тоесть не дорожите ренкингами, тогда создайте абсолютно новую страницу с теми данными которые вы обновили
    2) Посмотрите каким образом текущая страница перелинкована на сайте, с какими анкорами вы на нее ссылаетесь. Если есть анкоры из старого списка, меняйте и или трите (в зависимости отситуации)
    3) Обратите внимание что есть еще и внешние ссылки на сайт. Вполне вероятно что Вы, либо ктото еще ссылался на эту страницу с определенными анкорами, либо около анкорными ссылками.
    Я в целом ситуацию не знаю, почему вы так не хотите ранжироваться по конкретным словам, но как вариант если все так критично, тогда удалите страницу (будет как 404), запретите ее в robots.txt, а нужный контент переместите на новую страницу. Ну понятное дело что 301 редиректлучше не использовать.
    Ответ написан
    Комментировать
  • Варианты домена в Google Search Console (с www и без), добавлять ли sitemap во все варианты или только в канонический?

    SEOBot
    @SEOBot
    SEO Noob
    Да, стоит указывать один вариант sitemap.xml в котором указаны правильные URLs (те для которых вы задали приоритет и используете как основной). Не стоит забывать, что необходимо настроит 301 редиректы для тех версий сайта которые не основные.
    Относительно GSC (по старому WMT) то с недавних пор у них появилась возможность делать наборы (sets) в которые можно объединять данные из разных вариантов. Я рекомендую использовать все 4 набора на всякий случай (http : //non-www. http : //www. https : //non-www. https : //www.) Таким образом вы будете получать максимально полную информацию (бывали случаи когда редиректы отваливались, плагины отключались, начинали давать сбои и т.д, а данные собирались полностью).
    Ответ написан
    Комментировать
  • Почему 0 страниц в поиске?

    SEOBot
    @SEOBot
    SEO Noob
    А чем вы смотрите свои позиции в топе в отчете или ручками? Если ручками, попробуйте посмотреть как выглядят Ваши позиции и в Google.
    Типичной проблемой бывает перенос сайта (обновление) с локального (тестового) сервера. А на сторонних серверах обычно отключают сайт от индексирования в robots.txt.
    Проверьте robots.txt на предмет Disallow: /
    Или проверьте темплейты сайта на предмет meta тега robots noindex.
    Ответ написан
    Комментировать
  • Почему в выдаче яндекс site: и host: разные значения?

    SEOBot
    @SEOBot
    SEO Noob
    1) Как по мне, сильно много ключей попытались всунуть в meta description на главной. Выглядит немного переспамлено (например слово Онлайн сильно оторвано контекста) и что Google что Yandex его не отображает.
    2) Нет meta descriptions на 43 страницах.
    3) Вынесите стили с главной страницы с inline во внешний файл.
    Ответ написан
    4 комментария
  • Что делать с 1000 текстами для копирайтинга?

    SEOBot
    @SEOBot
    SEO Noob
    Как вариант обратиться на разные площадки которые отвечают! за качество контента, с возможностью возврата контента на доработку, если он вас не устроит.
    Идеальный вариант, чтобы контент писался не форматом 1 человек - 1000 текстов, а 100 человек по 10 текстов или 10 человек по 100 текстов. Таким образом Вами будет получен результат быстрее, и на начальном этапе сможете отсеить тех копирайтеров, которые Вас не устраивают по качеству написания.
    Ответ написан
  • Что делать с дублями?

    SEOBot
    @SEOBot
    SEO Noob
    Если данные страницы в свое время были в индексе поисковых систем, вероятно на них кто-то мог ссылаться. Потому не стоит их просто выкидывать из поиска, стоит использовать их ссылочный профиль (некоторые покупают ссылки =) а вы хотите их просто в 404 пустить). Так же не стоит забывать о том, что URL которые уже ранжируются в поисковых системах на начальном этапе миграции, будут иметь позиции лучше чем страницы с новыми URL (если не использовать 301). Потому обязательно надо сделать редиректы, для того чтобы информация накопленная поисковыми системами о этих страницах не удалилась, а передалась на новую.
    Идеальным вариантом решения будет использование 301 редиректов в htaccess или nginx.conf со страниц с дублями (старых страниц) на один URL (новую страницу).
    Хорошая статья о 301 редиректах https://devaka.ru/articles/redirect-301
    Второй вариант, это использование старых страниц дублей с прописанным “rel canonical” указывающим на новую страницу. Данный вариант менее приемлем, но удобен (а иногда и единственный вариант) для некоторых проектов (например в случае если нет возможности править htaccess, либо используется ”кастомная” CMS).
    Пример и разъяснения по canonical https://devaka.ru/articles/link-rel-canonical
    И не забывайте использовать GSC (Google Search Console – по старому WMT). В нем можно посмотреть список страниц на которые были заходы и сайт выдал 404 ошибку (стоит добавить этот список в список редиректов если случайно пропустили).
    Ответ написан
    Комментировать