Задать вопрос
  • Можно ли формировать канонические адреса страниц таким образом?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Допустим, сайт магазина показывает страницу одного и того же товара по ссылкам вида:
    site.com/{производитель}/{тип_товара}/{id}/
    site.com/{тип_товара}/{производитель}/{id}/


    Т.е. ссылки такого вида, верно:
    site.com/агротекс/пленка/248756/
    site.com/пленка/агротекс/248756/

    Допустимо ли в качестве канонического адреса указать ссылку вида
    site.com/{id}/,


    Т.е. ссылка получится в виде, верно: site.com/248756/

    при условии, что сервер отдаст по этому запросу корректную страницу, но сама ссылка в таком вида на сайте не присутствует (но есть в sitemap.xml)?


    Непонятно, как будет происходить "отдаст по этому запросу корректную страницу, но сама ссылка в таком вида на сайте не присутствует".
    Т.е. ссылка site.com/248756/ будет отдавать 200ОК, но при этом не будет существовать? Исходя из "сама ссылка в таком вида на сайте не присутствует". Как вы этого добьетесь? можно пример?

    Почему не сделать по "классике"?
    Генерировать карточки товаров, не привязанные к категориям сайта, чтобы одну карточку можно было транслировать в любой категории (категории Товары и Бренды)?

    А именно, исключаем URL такого вида:
    site.com/агротекс/пленка/248756/
    site.com/пленка/агротекс/248756/

    И генерируем URL для карточек товаров такого вида: site.com/248756/
    Ответ написан
    6 комментариев
  • Большой текст на странице услуг нужно вынести в пост?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если кратко: смущает текст вверху страницы - перенесите вниз.

    Если по фен-шую, то:
    1. Определите список запросов, по которым продвигаете страницу;
    2. Определите тип этих запросов - коммерческие/информационные;
    3. Если явно информационных нет (содержащих вопросительные слова - "как, кто, что" и тд.), то по собранному списку просмотрите выдачу в Яндекс/Google и сравните страницу своего сайта с первой десяткой сайтов по продвигаемым запросам. Если текстовые "мешки" присутствуют на странице конкурентов, обратите внимание на объем и место расположение (например, текст может находится в конце страниц, либо равномерно распределен по странице, сопровождаемый подзаголовками).
    4. После анализа определитесь, будете ли менять то что у вас сейчас или нет, опираясь на показатели: позиции по продвигаемым запросам и конверсия (заявки/лиды).
    5. Если решитесь убрать или перенести текст, не забудьте зафиксировать данные по указанным выше показателям, чтобы определить пошли ли изменения на пользу или нет.


    Вот, собственно и всё:))
    Ответ написан
    Комментировать
  • Появляются дубли страниц в Верхнем регистре?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Настройте самостоятельно или озадачьте программиста - 301 редирект с букв верхнего регистра для URL в файле .htaccess и будет вам счастье.
    Ответ написан
    Комментировать
  • Как исключить негативное воздействие обратных ссылок спама?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Настройка хотлинков не поможет, т.к. вы правильно написали - ссылка останется, а этого достаточно для индексации и передачи веса со всеми "прелестями".

    Отправка в сервис "Отклонения ссылок" Google совсем не факт, что поможет, но делать обязательно надо.

    Можно написать в саппорт Яндекса и подвести доказательную базу, что сайт падает именно из-за ссылок и спросить их, что делать, чтобы он не падал в Яндексе. То, что сайт падает из-за спамных ссылок - это косяк Яндекса, пусть предлагает решение. Но это я вам так написал, с поддержкой же надо общаться максимально уважительно и грамотно подводить им за недоработки их системы, где-то "включать дурачка", но мягко и настойчиво добиваться от них четкого ответа с конкретными действиями. А не отписками типа "развивайте сайт". Если напишут, что-то типа "мы всё пофиксили, теперь будет все хорошо", спросите, с какого числа будет всё хорошо, добивайтесь конкретики. И если после этого числа не будет все хорошо, открывайте тикет заново, чтобы была сохранена переписка и дожимайте этих пацанов. Долго, муторно, но надо это делать.

    Превентивные меры от ссылочного спама - развитие хорошего ссылочного профиля. В этом случае спамные ссылки будут оказывать меньший эффект, но все же будут.

    Как строить ссылочный профиль:
    • закупка ссылок с трастовых доменов (по чек-трасту и Ashefs). При отборе сайтов-доноров обращайте внимание не только на показатели Главной донора, сколько на показатели страницы, с которой будете получать ссылку, это важно!!
    • построение PBN-сетки, с которой проставлять ссылки


    Если спам-ссылки содержат адалт анкоры (например с рекламой писько-кремов), то готовьте параллельно домен, на который сайт может переехать, в случае, если не помогли предыдущие пункты. Или в любом случае его всегда надо готовить, хотя бы в качестве сателлита в виде СДЛ - пригодится и ссылку проставить и переехать в случае чего.
    Ответ написан
    Комментировать
  • Как собрать все внешние ссылки ведущие на сайт?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Чтобы собрать все возможные внешние ссылки сайта можно сделать следующее:
    1. Скачать архив внешних ссылок в кабинете Вебмастера Яндекса. Минусы: данные редко обновляются, поэтому свежие ссылки можете не получить, но зато будут данные по анкорам внешних ссылок.
    2. В Google консоли не получите таких подробных данных, как в ЯВебмастере, только список доменов и анкоров по отдельности.
    3. Сервис Ahrefs является мощным сервисом, который сканирует внешние ссылки по миллионам сайтов. Из него тоже желательно взять данные по бэклинкам. Сервис полностью платный, но для нерегулярных и разовых задач нет необходимости покупать тариф. Поможет Ashefs бот, который позволит получить данные по внешним ссылкам сайта за символические 10 руб. за одну сессию с доступом к данным по внешним ссылкам интересующего вас сайта.
    Ответ написан
    Комментировать
  • Отдельная страница в индексе для бренда, можно ли?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Чувствую задницей, что необходимо прописать на страницах брендов canoncal на главную страницу "скупка телефонов" переобойти их роботами, затем удалить страницы на сайте, в сайтмап и отправить запрос на удаление этих страниц из индекса.

    Предположу, что это был вопрос.
    Прежде чем так поступать что бы сделал я:
    1. собрал запросы типа "скупка телефонов+бренд" по региону продвижения
    2. затем собрал по ним частотность типа "." по региону продвижения
    3. затем, если частотность больше 0, проанализировал мета-теги страниц сайтов-конкурентов
    4. затем составил свои уникальные шаблоны мета-тегов, состоящие из запросов, слов тематики/подсветки, своего УТП, призыва к действию, эмоджи
    5. затем настроил генережку по составленным шаблонам и проверил, как она сработала.
    6. Затем отслеживал трафик после апдейта (14 дней для Яндекса).
    7. И только после этого решал бы насчет целесообразности настройки каноникал куда-либо.


    Почему именно такой порядок действий? Потому что цель сайта - генерировать трафик и конвертировать его в лиды 24/7. И, как правило один из путей увеличения трафика на сайт из поисковиков - увеличение количества посадочных страниц. Но только при соблюдении условия - они должны генерить трафик! Поэтому проверяем, если генерят - оставляем.

    Внимание: НО результат от этих действий (по мета-тегам), ждем только при условии, что контент на страницах "Брендов" оптимизирован правильно и у сайта нет хостовых санкций и сайт/шаблон технически он оптимизированы!
    Ответ написан
  • Надо ли и как ставить Noindex на Wordpress?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Встречный вопрос: почему бы не скрыть блок текста с помощью JavaScript или AJAX?

    Суть этого метода заключается в том, что сам контент находится во внешнем файле и подгружается уже после загрузки документа. В этом случае поисковые системы не могут проиндексировать его. Чтобы спрятать текст от поисковых систем создаем html файл с содержимым, которое необходимо скрыть. Не забываем закрыть в robots.txt от индексации файлы со скриптом и текстом, который мы хотим скрыть.
    Ответ написан
    Комментировать
  • Почему сайт стал скакать в выдаче и чехарда в веб-мастере?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Как вам верно рекомендовал пользователь Пума Тайланд - для начала проанализировать данные счетчиков метрики.

    Чаще всего, причин несколько:
    • обновление старых и "выкатывание" новых алгоритмов поисковых систем;
    • работа накрутчиков (т.н. "нагуливание" ботов, которое увеличивает трафик на ваш сайт по прямым заходам, заходам с соцсетей и поисковых систем).


    Что можно сделать в этом случае:
    1. Отслеживать новости по появлению новых алгоритмов вот Яндекса/Google и "подгонять" сайт под эти требования;
    2. Если путем анализа данных счетчиков метрики обнаружите "левый" трафик на сайт, то можете либо что-то делать с этим, либо просто продолжать работу над проектом.


    Насчет "что-то делать":
    • У Google техподдержки нет, Яндекс ответит дежурное "это не повлияет на ваш сайт - развивайте и будет вам хорошо.."
    • Закрывать трафик от ботов по IP или как-то иначе, это долго и не всегда эффективно/безопасно, т.к. можно закрыть сайт от "живых" людей.
    Ответ написан
    Комментировать
  • Как часто сайт переиндексируется поисковым ботом?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Как часто сайт переиндексируется поисковым ботом?

    Для каждого сайта этот параметр индивидуальный.

    Например, для Яндекса (т.к. он обычно, дольше переиндексирует, чем Google) вы можете отслеживать динамику переиндексации в кабинете Вебмастера:

    Раздел "Индексирование" - Статистика обхода и Страницы в поиске (см. скриншот):
    60271225c7fb6206884071.jpeg

    Так же можете ускорить переобход, отправив наиболее важные URL через инструмент "Переобход страниц"
    6027122dd4078507954582.jpeg
    Ответ написан
    3 комментария
  • Какой поисковик позволяет создать области напряжённости согласно поисковым запросам?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Если я правильно понял, скорее всего речь идет об услуге Яндекса - продвижение на Яндекс картах?

    Если да, то поисковая система, которая владеет такими инструментами/сервисами, как:
    • Яндекс Карты
    • Яндекс Справочник
    • Яндекс Поиск (Вордстат, Директ)


    способна с помощью Big Data, собрать в единое целое такие параметры как:
    • запросы пользователей
    • география запросов пользователей (по городам)
    • размещение компаний, которые в виду своего бизнеса могут ранжироваться/отвечать на эти запросы (по городам/районам городов)


    и затем вывести эти данные визуально, например, на карту России, чтобы показать, где (в каком городе) самая высокая/низкая частотность тех или иных запросов (например, по цвету, в зависимости от частотности), а так же вывести список этих запросов.

    Т.е. как вы и написали:
    создания на карте областей поискового напряжения, в виде кругов с окрасов по интенсивности?
    Ответ написан
    Комментировать
  • WordStat поисковые запросы в кавычках и без, как правильно использовать в контексте SEO?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    "Купить крышную котельную" и "крышные котельные купить" это один запрос для яндекса и он понимает тот и другой вариант как один, при том что оба в кавычки взяты, так что запрашивают тот и другой вместе взятые примерно 12, а не 173 раз в месяц?

    да, верно 12, а не 173 раза

    запрос, по которому он продвинул сайт, куда более высокочастотный (не 12, а 173), т.е. ошибается или намеренно вводит в заблуждение. Или ошибаюсь я?

    правы оба, как ни странно.
    Он прав в том, что помимо указанного запроса, страница может ранжироваться по "хвосту" НЧ и мНЧ запросов, которые формируются из указанного вами запроса и они и составляют цифру 173 вместе с числом 12-ть, которое получили из оператора "" кавычки. О чем сейчас: см., например, алгоритм Яндекса Палех: https://yandex.ru/blog/company/algoritm-palekh-kak...).

    А вы правы в том, что вас, наверное, интересует конкретный запрос (в кавычках) и страница сайта релевантна ему и часть из тех 173 запросов относится непосредственно к нему - 12, а часть может не относИтся. Но, чтобы проверить эту гипотезу надо скурпулезно генерить всевозможные запросы и проверять их на частотность и все-равно вы не получите точных данных только потому что Вордстат их просто не предоставляет (потому что цель этого инструмента не облегчить нам жизнь).

    Немного помочь в вашей ситуации могут сервисы аналитики - Яндекс Метрика и Google аналитика (если они установлены на вашем сайте). С их помощью можно проверить, по каким запросам из поиска переходят пользователи на релевантную запросу страницу сайта.

    В результате, можно списком вывести тот самый "длинный хвост" запросов из "Купить крышную котельную", чтобы понять по каким запросам реально приходит трафик и какой по ним % отказов (насколько страница соответствует запросам). И насколько прав тот, кто уверяет вас, что запрос на самом деле 173, а не 12.

    Так же для точности можно воспользоваться сервисами, которые показывают "видимость" сайта/страниц в поисковых системах. И данные сервисов прибавить к тому, что предоставят счетчики аналитики на сайте.

    В результате, может выяснится, что пул запросов, по которым ранжируется страница намного более широкий и список запросов более разнообразный, чем "Купить крышную котельную". Именно по этой причине многие толковые специалисты и веб-агентства перестали практиковать продвижение сайтов по строгому списку запросов, а продвигают "по трафику".
    Ответ написан
    6 комментариев
  • Если найти уже опубликованную старую статью и договориться о том что бы в нее была встроена ссылка - что из этого получится?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    что из этого получится?


    Вариантов несколько:
    1. страница-акцептор повысит позиции по продвигаемым запросам, в случае высоких показателей качества страницы/сайта-донора, совпадения тематики, грамотного анкора, dofollow линка, наличия переходов юзеров по ссылке и хорошим ПФ на странице-акцепторе.
    2. страница-акцептор незначительно/значительно понизит позиции по продвигаемым запросам, в случае противоположных показателей, перечисленных в 1-м варианте.
    Ответ написан
    Комментировать
  • Почему Яндекс Вебмастер считает страницы недостаточно качественными?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Посмотрите в сторону исправления внутренних дублей на сайте.
    Пример:
    lvsolutions.ru/h265/
    lvsolutions.ru/arts/video-art/h265/
    Ответ написан
    5 комментариев
  • Пришло уведомление, что изменился ИКС сайта. А он не изменился, почему?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Уведомление на почтовый ящик приходит быстрее, чем обновляется информация в кабинете Вебмастера Яндекса.
    Поэтому просто подождите немного, через 2-5 дней цифра в кабинете Вебмастера Яндекса поменяется.
    Ответ написан
  • Может ли работа нескольких сеошников в рамках одного сайта мешать друг другу?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    Попробую навскидку, не особо углубляясь, предположить, почему данная затея может не принести желаемого результата.

    Список причин:
    • Есть перечень работ по сайту, которые нельзя делать по отдельности, т.к. ошибки приводят к санкциям поисковых систем, которые накладываются на сайт в целом. Т.н. "хостовые" санкции. Например, один подрядчик решил закупить ссылки с коммерческими анкорами и второй сделал тоже самое. В итоге на сайт ведут масса внешних ссылок с коммерческими анкорами. Итог? Минусинск от Яндекса, падение трафика по всему сайту в целом. Или один из подрядчиков оказался недобросовестным и заказал накрутку ПФ, Яндекс это вычислил и сайт полностью потерял позиции на 8 месяцев. И т.д. и т.п.;
    • Есть изменения на сайте, которые могут не согласоваться между двумя подрядчиками, т.е, что русскому хорошо, то немцу - смерть! Например, сайт является интернет-магазином. Один из подрядчиков решил, что надо поменять верстку карточек товаров, добавить на страницы категории функционал "индексируемый SEO фильтр", а второй подрядчик уже пишет вам, что этого делать нельзя потому-то потому. или именно так, как предлагаем первый подрядчик делать нельзя, надо по-другому.. И вы создали себе головную боль, выход из которой - остановить выбор на одном подрядчике.
    Ответ написан
    Комментировать
  • Сколько внешних ссылок можно ставить на новый сайт?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    По количеству ссылок можно решить путем анализа конкурентов в выдаче по продвигаемым запросам. Т.е. выбираете молодые сайты по продвигаемым запросам в Я/G и анализируете их ссылочный профиль.

    Выбираете в ТОП20 сайты с возрастом 3-12 мес. Смотрите динамику по росту ссылочного через Ashefs и примерно делаете выводы, сколько надо закупать в мес.


    Процесс трудоемкий и есть вариант вообще не найти подобных или найти только в Яндексе, где частот встречаются накрученные ПФ сайты, а их брать в анализ категорически нельзя.
    Заодно посмотрите, какие типы ссылок и с каких сайтов закупали конкуренты и примите решение получать ли ссылки с тех же доноров. Поэтому в любом случае затраченное время будет потрачено с пользой.
    Ответ написан
    Комментировать
  • Гугл проиндексировал то, что скрыто в роботс.тхт?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    гугл проиндексировал то, что скрыто в роботс.тхт. Может быть это из-за того, что в карте сайта есть данные страницы? Что в таком случае делать?


    Это нормальная ситуация для ПС Google.
    Поэтому, если страницы уже проиндексировались и показываются в выдаче Google размещение мета-тега robots ( с параметрами: <meta name=“robots” content=“noindex,follow”>) до закрывающего /head на странице ничего не даст. Страницы по-прежнему будут находится в индексе поисковой системы.

    Чтобы исправить ситуацию, необходимо:
    1. удалить запрещающие директивы в robots.txt для страниц, которые хотите закрыть от индексации поисковых систем;
    2. задать до закрывающего /head на всех страницах сайта , которые решили закрыть, в мета-теге robots: <meta name=“robots” content=“noindex,follow”>.
    Ответ написан
    Комментировать
  • Будет ли разница для SEO между доменом .ru или .site?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    .site/.ru/.com и т.д - косвенно влияют на определение региональности сайта, которая в свою очередь определяет успешность продвижения по ГЕОзависимым запросам, которые в свою очередь, чаще всего коммерческие. Из этих данных исходим, определяя важность выбора между .site или .ru

    Если речь идет про продвижение сайта в России, то:
    1. принято считать, что в Google по региону "Россия" (и города РФ) лучше продвигаются домены с .RU, т.к. Google не предоставляет инструментов для четкой региональной привязки сайта, в отличие от Яндекса.
    2. что касается Яндекса, то у него есть инструменты для региональной привязки (в кабинете Вебмастера), что позволяет определять региональность домена практически до любого населенного пункта РФ. Поэтому разницы между .site или .ru, скорее всего не будет.
    Ответ написан
    Комментировать
  • Хуже ли продвигаются домены .site чем .ru? Или разницы нету?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    .site/.ru/.com и т.д - косвенно влияют на определение региональности сайта, которая в свою очередь определяет успешность продвижения по ГЕОзависимым запросам, которые в свою очередь, чаще всего коммерческие. Из этих данных исходим, определяя важность выбора между .site или .ru

    Если речь идет про продвижение сайта в России, то:
    • принято считать, что в Google по региону "Россия" (и города РФ) лучше продвигаются домены с .RU, т.к. Google не предоставляет инструментов для четкой региональной привязки сайта, в отличие от Яндекса.
    • что касается Яндекса, то у него есть инструменты для региональной привязки (в кабинете Вебмастера), что позволяет определять региональность домена практически до любого населенного пункта РФ. Поэтому разницы между .site или .ru, скорее всего не будет.
    Ответ написан
  • Как спрятать для поисковых систем некоторые служебные страницы?

    ReactorHeart
    @ReactorHeart
    SEO аналитик
    И ещё, я тут в одном месте прочитал, что выражение со звёздочкой и вопросительным знаком работает только для Googlebot, это правда? Хотелось бы ещё для YandexBot и bingbot убрать.


    Каждая поисковая система обрабатывает директивы из robots.txt по-своему.
    Чтобы не гадать и надежно закрыть от индекса служебные страницы, необходимо задать до закрывающего /head на всех страницах сайта , которые решили закрыть, в мета-теге robots:

    При этом, если ранее эти страницы были закрыты в robots.txt запрещающими директивами, то директивы необходимо удалить (для тех страниц, где прописали в коде страниц в мета-теге robots: )
    Ответ написан
    Комментировать