Задать вопрос
  • Каким способом правильно закупить ссылки на главную и внутренние страницы?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Как правило при закупке ссылок под Google закупают только на Главную, под Яндекс - на отдельные посадочные. Поэтому здесь решаете, что вам надо и применяете вариант и/или.

    Так же важно поддерживать положительную динамику в течении длительного времени, потому что эффект от них начинается от 3 месяцев. А это значит, что рассчитайте бюджет на 6 месяцев минимум и сколько вы готовы выделять на ссылки, исходя из стоимости ссылки на рынке 1500 - 3000 руб. В результате, на практике получается 5-10 ссылок в месяц и этого бывает достаточно. Так же, учтите, что важно подобрать качественных доноров, написать и опубликовать качественные тексты, где будут размещаться ссылки. А в некоторых случаях ещё и купить ссылки на страницу-донор. При этом соблюсти пропорции анкор/безанкор. Только тогда можно ожидать эффекта.
    Ответ написан
    Комментировать
  • Улучшают ли позиции в ПС разные «оптимизаторы» текстов?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    по п.1
    Если правильно всё сделали - да (ниже проверьте свои параметры проверки с моими). Но утверждение верно при целом ряде других условий - отсуттсвия накрутки ПФ конкурентами, постоянной положительной динамике по росту ссылочной массы с качественных доноров, качественной оптимизации сайта в целом, отсуттсвия хостовых или постраничных санкций и т.п, что не всегдавыполняется или оцевидно.

    по п.2
    Даже с хорошо написанным текстом рекомендую использовать Тургенев, текст.ру. По сервису Тургенев дорабатывать текст до параметров - не более 5 баллов, повторы=0.
    Если нет возможности выгружать LSI-слова по запросу, то этого будет достаточно. Хорошо написанная статья должна содержать LSI-слова по максимуму, но я пока таких не встречал - всегда требуется доработка (дописывания текста с недостающими LSI-словами) для оптимизации под нейронки поисковых систем.
    Ответ написан
    Комментировать
  • Дублирующийся контент - действительно ли это так плохо?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если один и тот же текст повторяется на 1 странице несколько раз - это может привести к переспаму. И чаще всего словами, которые НЕ относятся к поисковому запросу, по которому продвигается страница. Это значит, что в результате:
    1. страница получает пенальти по переспаму
    2. плохо ранжируется по продвигаемому запросу, т.к релевантна совсем другому запросу, а не продвигаемому

    Если один и тот же текст повторяется на каждой странице сайта - это увеличивает % схожести страниц между собой, т.е является источником внутренних дублей. Что в свою очередь, в зависимости от масштаба проблемы, приводит к проседанию позиций всех страниц сайта, а так же появлению у страниц статуса "малополезные" (в частности для Яндекс). И неважно какой это текст - в дополнительном блоке или второе Меню, которое предназначено для мобильной версии.
    Ответ написан
    Комментировать
  • Почему Яндекс в один день может массово удалить из индекса страницы нашего сайта, которые он считает низкоценными и мало востребованными?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Помимо того, что вам уже рекомендовали - проверьте страницы сайта на наличие внутренних дублей контента.
    Это типичная причина малополезных страниц.
    Проверить можете декстопной программой SiteAnalyzer (бесплатной версии должно хватить).
    Сначала сканируете сайт в программе, оставляете только HTML страницы (без ссылок на картинки, скрипты и проч мусор). Затем кликаете на вкладку "Контент" и затем - "Проверить уникальность".
    В результате проверки - все URL, что получат менее 70% уникальности - внутренние дубли, с которыми надо работать.
    6894b55fe165a743441740.jpeg
    Ответ написан
    Комментировать
  • Как полностью удалить сайт из индекса?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Для того, чтобы удалить из выдачи поисковых систем ссылки на страницы сайта с надписью "Владелец предпочел скрыть описание страницы" вам необходимо выполнить 2 шага:
    1. Удалить запрещающие директивы в файле robots.txt
    2. Задать до закрывающего /head в мета-теге robots: meta name=“robots” content=“noindex, follow”

    Для ускорения переиндексации можно отправить на переобход URL сайта, которые отображаются в выдаче.
    Ответ написан
    Комментировать
  • Одинаковые заголовки и описания страниц Яндекс Вебмастер как исправить если они в коде разные?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Согласно тех данных что вы предоставили, возможны 2 варианта:
    1. 1. Устаревшие данные в кабинете Яндекс Вебмастер. Т.е например, исправили, но не нажали кнопочку "Исправлено". Или кликнули по кнопке "Исправлено", но не дождались обновления данных ЯВебмастера по текущей ошибке. Или список примеров после перепроверки Яндексом наличия ошибки изменился, т.е исчезли страницы, где ошибка исправлена и появились новые URL.
    2. 2. По каким-то причинам поисковая система Яндекс не видит мета-теги или текст в них. Чтобы исключить это, смотрите сохраненную копию страницы в кеше поисковой системы.
    Ответ написан
    Комментировать
  • Проблема с Description вебмастер выводит ошибку, как быть?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Чтобы устранить ошибку сделайте следующее:
    1. на перечисленных страницах задайте до закрывающего /head в мета-теге robots:
    2. отправьте страницы на переиндексацию.
    3. Нажмите кнопку "Исправлено/Проверить" в кабинете ЯВебмастера.


    Примечание: meta name=“robots” должен отрабатывать не только на перечисленных страницах в кабинете ЯВебмастера, а во всех типовых страницах. т.е на всех страницах меток, URL содержащих переменную /?, URL, которые генерит плагин "GT3 Gallery plugin". Если CMS Wordpress, то часть настроек делается руками через настройки плагина Yoast SEO, возможно, есть нужные настройки в плагине "GT3 Gallery plugin" - это уже детали, в которых должен разбираться программист/Админ.

    Если вы сделаете всё правильно, то на продвижение повлияет положительно.
    Ответ написан
  • Как быстро поднять сайт в топ 5 Яндекса?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если по запросам, то воздействуя на поведенческий фактор.
    Проще говоря, заказать накрутку поведенческих.
    Будет ли из этого толк, а именно увеличение количества переходов из Яндекса, и не получит ли домен "бан" вопрос другой.
    Но быстро поднять сайт в ТОП Яндекса по запросам у вас получится.
    Ответ написан
  • Цифры в URL - будет ли негативно влиять на индексацию сайта?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Для индексации URL нет разницы будет ли он содержать цифры или ЧПУ. Главное, чтобы не был закрыт от индекса и не являлся внутренним дублем другого URL (в этом случае может быть исключен из выдачи).

    Для ранжирования, есть влияние. URL с ЧПУ будет лучше ранжироваться, если содержит слова из запроса. Как правило ЧПУ в URL формируется путем транслитерации заголовка Н1 страницы.
    Ответ написан
    Комментировать
  • Что сейчас стоит читать о SEO?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Почитайте про:
    • запросный индекс
    • текстовую релевантность
    • поведенческие факторы
    Ответ написан
    Комментировать
  • Как оптимизировать дубликаты PDF-файлов в интернет-магазине?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Рекомендую PDF документы закрыть от индексации.
    Вы результате:
    1. избавитесь от внутренних дублей контента на сайте;
    2. документы перестанут ранжироваться в поисковых системах и конкурировать с карточками товаров, т.е карточки товаров будут получать больше трафика с поисковых систем.


    Как это сделать: закрытие PDF документов путем прописывания HTTP-заголовка X-Robots-Tag. Справка: https://developers.google.com/search/docs/crawling...
    Ответ написан
    Комментировать
  • Get запросы нужно закрывать или перенаправлять для seo?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если URL сформированный по гет запросу дублирует исходный URL он не должен индексироваться. Потому что появление дублей в выдаче поисковых систем чревато санкциями. Это важно, если вы ожидаете, что сайт должен получать органический трафик (переходы с выдачи поисковых систем).

    Вы писали про перенаправление со страниц с GET параметрами. Имеете ввиду 301 редирект? Но страницы с гет параметрами откуда-то генерятся? Может быть это результат сортировки и т.п.? Тогда вместо результатов сортировки пользователь получит туже самую страницу, без работающего функционала сортировки. Надеюсь, что понятно выразился:) В общем, перенаправление не выход, на мой взгляд.

    Чтобы URL не зашел в индекс есть несколько путей запрета индексации:
    1. Задать до закрывающего /head в мета-теге robots: meta name=“robots” content=“noindex, follow”
    2. Прописываем запрещающую директиву в Robots.txt
    3. Прописываем Rel canonical в коде страницы


    Самый надежный способ указан в п.1

    Потому что директивы в Robots.txt Google воспринимает, как - рекомендуемые, т.е не для обязательного выполнения/соблюдения. А значит URL будут присутствовать в выдаче, но только в виде заголовка. А присутствие в выдаче = ранжирование. Поэтому способ отпадает, если нужен запрет на показ в Google.

    А rel canonical часто не учитывается Яндексом, особенно, если контент на страницах различается. Вот вам пример со страницами пагинации:
    63e1155e3e61b935628265.jpeg
    Ответ написан
    Комментировать
  • Почему Google Speed жалуется на изображение?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Возможно причина кроется в том, что ожидаемый размер не совпадает с реальным?
    Т.е контейнер под изображение больше, чем реальный размер изображения.
    Если они будут совпадать, вероятно, ошибка уйдет.
    Ответ написан
    Комментировать
  • Как продвигать событийный сайт футбольной тематики?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Самые "жирные" страницы можно продвигать также, как и на любом сайте.
    Они не зависят от событийности:
    расписание матчей
    результаты матчей
    матчи сегодня
    и т.д

    Конкретно по страницам, которые быстро "выгорают".
    Так как вы не сообщили, что уже смотрели, буду перечислять всё подряд, навскидку, без глубокого анализа.
    Может что-то вам пригодится или наведет на мысль..

    В Яндексе важны поведенческие, поэтому хорошо бы их поиметь и желательно естественным образом.
    Для этого придется поправить верстку страниц идобавить необходимый функционал.

    Например:
    1. Видео спортивных событий в выдаче Яндекс: https://yandex.ru/support/webmaster/search-appeara... (возможно, необходима регистрация сайта, как СМИ)
    63e11172c7406394401729.jpeg
    2. Видео трансляции на Яндекс Спорт https://yandex.ru/support/sport/feed.html (возможно, необходима регистрация сайта, как СМИ)

    3. Проанализируйте конкурентов и добавьте в верстку страниц недостающие блоки.
    63e11150d4757284400647.jpeg

    Список из примера:
    1. Счетчик обратного отчета на плеер
    2. Список команды
    3. "Сделать прогноз" (пользователи сами создают вам контент + крутят поведенческие оставляя комментарии)
    4. Онлайн Чат


    Вы делаете эту правку 1 раз для шаблона страницы "Матч" и она работает на весь сайт без дополнительных настроек, как и шаблон мета-тегов.
    Ответ написан
    2 комментария
  • Как собирать и внедрять семантику на сайт после прошлого специалиста?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Алгоритм следующий:
    1. Собираете новую семантику
    2. Кластеризуете
    3. Распределив по посадочным и собрав частотность, проверяете позиции по каждому кластеру


    Картина будет примерно такая: часть запросов в кластере будет в ТОП-100, часть 50, 30, 20, 10.

    Если страница:
    • уже занимает ТОП-10 по частотному запросу - не трогаете ничего (как говорят лучшее враг хорошего).
    • занимает ТОП-20 и ниже, занимаетесь оптимизацией.
    Ответ написан
    Комментировать
  • Каноническая ссылка у яндекса?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Это серверные настройки и не совсем касаются SEO, но попробую дать направление, куда "копать".
    Если ваш сервер позволяет делать настройки через файл .htaccess, то можете изменить главную страницу через правило directoryindex.

    В этом случае при правильной настройке:
    • сайт будет по умолчанию открываться на настроенной вами странице
    • при клике на логотип тоже будет открываться настроенная вами вместо "/" страница, как Главная.


    Если вам необходимо в качестве Главной открывать site.example/main, то примерный алгоритм такой:
    1. Вам понадобится доступ к панели управления хостингом или FTP (для доступа по FTP используйте FTP-клиент, такой как FileZilla)
    2. В "корне" сайта на сервере находите файл .htaccess
    3. Скачиваете на ПК (если работаете через FileZilla)
    4. Открыть редактирование файла .htaccess (в панели управления хостингом просто открывается на "редактирование")
    5. Редактировать файл, скачанный на ПК желательно программой Notepad++
    6. В самом верху файла прописываете: DirectoryIndex /main
    7. Сохраняете, закачиваете файл обратно на сервер с заменой старого
    8. Сбрасываете кеш на сайте/браузере и проверяете результат.


    Внимание:
    1. Перед производством любых подобных манипуляций с сайтом, предварительно, сделайте бэкап Базы данных сайта!
    2. Предоставленный мною вариант может не подойти вашему сайту из-за конфигурации сервера


    P.S. Вы можете предложенное мною решение отправить в тикете для техподдержки вашего хостинга и спросить, можно ли сделать такую настройку на вашем сервере и будет ли она работать, как вам необходимо.
    Техподдержка хостинга точно знает ответ на этот вопрос и может даже бесплатно подсказать вам правильно ли составлено правило для .htaccess
    Ответ написан
    Комментировать
  • Семантическое ядро в низкочастотной сфере. Какие поисковые запросы оставить, а какие удалить из ядра?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Вопрос №1: Выделил запросы, которые по моему мнению не являются коммерческими и такие следует удалить из ядра?

    Пользоваться запросами только из ЯДиректа для продвижения сайта нельзя, т.к. это не полное семантическое ядро. т.е. этот список собирался для других задач. Следовательно, по фен-шую вам надо собрать заново семантическое ядро для вашей ниши, а потом искать ответы на заданные сейчас вопросы. Но это лирика от меня только для того, чтобы дать вам понять, что вы используете не весь потенциал запросов, а десятую его часть и это ваше решение и вы должны понимать, что получите соответствующий результат.

    Теперь по существу вашего вопроса.
    "По вашему мнению" - пожалуйста, ориентируйтесь на данные, которые более объективны и не применяйте ручной труд, там, где можно автоматизировать рутинные процессы - берегите свое время. Есть, например, сервис Пиксел тулс, в на бесплатном тарифе сможете проверить (не за один раз, конечно) весь список ваших запросов на коммерческость. В сервисе есть инструкции, как анализировать полученные от сервиса данные. Кстати, там же есть возможность получить выгрузку из ТОП-10 по Я/G, чтобы руками не вбивать каждый запрос в режиме инкогнито, который давно не инкогнито..

    Если вкратце, то получите 3 типа запросов: коммерческие, информационные, смешанный интент (50/50 коммерч/информац).
    Что с этим делать:
    • коммерческие кластеризуете (распределяете) на коммерческие страницы
    • информационные - пишите статьи
    • смешанные - распределяете на коммерческие и пишите статьи.


    Важно: правильно распределяйте/кластеризуйте по посадочным страницам - согласно выдаче.

    Вопрос №2: Стоит ли ориентироваться на показатель точного вхождения и удалить из ядра фразы, частотность точного вхождения которых ниже определенного порога, например от 2 и ниже?

    Здесь каждый смотрит по своему опыту и размеру семантического ядра. Т.к. СЯ у вас неполное, то сложно дать однозначный ответ.

    В любом случае, ориентируемся на "частотность точного вхождения (в кавычках)" по вашему региону продвижения. Исходя из того, что есть сейчас я бы не стал удалять даже нулевики. Почему? Потому что важна общая частотность кластера в данном случае. Т.е. "нулевики" могут попасть в один кластер с частотными запросами и будете работать с ними. Ведь может оказаться, что это сезонные запросы или "мигающие" (частотность появляется раз в 2-3 месяца). Конечно, если кластер будет состоять только из "нулевиков", то надо будет ручками смотреть какая по ним выдача.
    Ответ написан
    4 комментария
  • В каком сервисе бесплатно можно проверить частотность пары тысяч поисковых запросов в яндексе и гугле?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Про достоверность данных по частотности сразу вам сообщу - всё очень-очень-очень примерно, в каком бы сервисе вы не проверяли. Почему? Потому что "поисковые системы" - это бизнес и ничего личного. А значит, не обязаны предоставлять достоверные сведения даже рекламодателям.

    По "забесплатно", попробуйте бесплатную программу position-meter (.)ru
    Но возможно, и на нее потребуются какие-то лимиты, давно пользовался, не помню.
    Ответ написан
    Комментировать
  • Редирект или 2 сайта?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если нет желания получить аффилиат-фильтр за попытку продвинуть два сайта одной компании/владельца по одинаковому пулу запросов, то делайте 301 редирект.
    Ответ написан
    1 комментарий
  • Стоит ли подключать Турбо Страницы Яндекса и AMP Google для продвижения сайта?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Турбо-страницы дают прирост в CTR сниппетов на выдаче Яндекса, поэтому есть резон их подключить.
    Чаще всего хорошо работает для коммерческих проектов. Для информационных - не рекомендую.

    В любом случае, вы можете как подключить, так и отключить эту технологию, сделав замеры ДО и После. Да, это займет время и средства на реализацию, но надо понимать, что каждый проект/ниша индивидуальны и у всех работает с разной степенью успеха. Без тестов наверняка в SEO мало что можно использовать.
    Ответ написан
    Комментировать