Задать вопрос
  • Почему неуникальные статьи занимают первые места?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Важность уникальности малость раздута, и сильно уступает более весомым метрикам: хостовым, пользовательским и т.п.
    При этом поисковик теоретически может знать, где контент был опубликован раньше. Но более посещаемый и авторитетный ресурс всегда будет в приоритете.
    Ответ написан
    Комментировать
  • Почему неуникальные статьи занимают первые места?

    pro100taa
    @pro100taa
    Здесь надо смотреть и анализировать ситуацию.

    1. Как вы убедились в том, что статья неуникальная? Вы уверены, что это топовая статья копипаст, а не первоначальная? Надо отследить какая статья раньше появилась и из этого делать выводы.

    2. С другой стороны, действительно, встречается копипаст в ТОПе. Я не исследовал тщательно эту тему. Такое, чтобы на первом месте копипаст был, обычно, не встречаю. Но на втором, третьем, после оригинала - часто.

    Гугл очень косячная система.
    Ответ написан
    Комментировать
  • Почему неуникальные статьи занимают первые места?

    @Gabib
    Можешь проверить через be1 возраст страниц у разных сайтов, если увидишь, что сайт с топ-1 самый старый, вот и ответ тебе)
    Также, стоит учитывать, что создавая контент уникальный на 100%, который будет отвечать требованиям пользователя, очень сложно
    Можешь также глянуть, по каким запросам эти сайты в топ-1-3 и посмотреть, отвечает ли сайт на твой вопрос по этому ключу
    Ответ написан
    1 комментарий
  • Получать сообщения о переходах на сайт с ключевой поисковой фразой?

    RotgarSett
    @RotgarSett
    SEO Эксперт
    Вероятно он это делал еще до того как гугл с яндексом стали шифровать запросы. Однако можно вытаскивать запросы из API метрики и не совсем в реальном времени, но получать инфу о запросе. Связывать ее с конкретным пользователем можно давая каждому новому пользователю ID в и показывать его в урле, например site.ru/categoriya?id=2227837, отслеживая тем самым человека и запрос в метрике через API, связвая урл входа в котором указан ID и поисковую фразу которую видим в метике. Этот же ID пишется человеку в кукки. А с помощью сервиса соцтрекинга или сервисов бигдаты можно узнать почты некоторых людей и связать их также по ID с кукки. Или же, если на сайте, например можно оставить заявку введя почту, то еще проще узнать почту пользователя.

    В итоге получаем:
    1-присваиваем ID юзеру
    2-пишем ID в кукку
    3-пишем ID в url входа site.ru/categoriya?id=2227837
    4-через API метрики связываем ID в урле с поисковой фразой
    5-с помощью соц трекинга, биг даты или формы на сайте связываем ID и почту
    6-Получаем связку ID-поисковая фраза-почта
    7-настраиваем рассылку и отправляем письма

    Возможно есть готовые сервисы которые это делают.

    П.С.
    Судя по отзывам знакомых с форума, 70% того что они (бизнес молодость) рассказывают это выдумки или красивая теория не опробованная на практике. Но в целом описанная мной схема будет работать.
    Ответ написан
    9 комментариев
  • Как продвигать сайт в поисковых системах?

    RotgarSett
    @RotgarSett
    SEO Эксперт
    Для настройки SEO для сайта необходимо выполнить следующие действия:

    Первый шаг - выявление направленности проекта:
    • коммерческий
    • информационный
    • энциклопедический
    • социальная сеть и прочее


    Далее, после того как определились с типом ресурса, выявляем важнейшие для его оптимизации факторы ранжирования. Так, например, для коммерческих проектов во главе угла стоят коммерческие факторы ранжирования, а вот для информационного проекта необходимо учитывать полноту раскрытия информации, стиль подачи и многое другое, подробнее можно почитать в этой статье на Хабре.

    Далее есть список факторов которые необходимо учитывать всем ресурсам, это технические, семантические и поведенческие факторы.

    Для начала необходимо подготовить фундамент - провести подробный анализ технических факторов помогут такие программы как Netpeak Spider или Screaming Frog (программ конечно многое множество, но эти используют чаще всего). Но, к сожалению, тулсами можно проверить не все и необходимо будет изучить матчасть и проверять многие технические аспекты руками.

    Затем переходим к семантике, это очень сложный вопрос который лучше будет описать в другом ответе, но, в двух словах, необходимо убедиться что у всех страниц сайта заполнены важные элементы семантики (title, h1 и прочее) и они соответствуют контенту страницы.

    После, к UX сайта, четко продумывая взаимодействие пользователя и максимальное для него удобство. Тут же сразу учтем и часть коммерческих факторов, и оформление контента и прочее что напрямую связано с поведением пользователя.

    В финале мы получим идеально внутренне оптимизированный ресурс и можно будет приступать к внешней оптимизации.

    Старайтесь делать все максимально полезным для пользователя. Органичность содержимого сайта, реальная польза входящей ссылки для пользователя на стороннем ресурсе и прочее белое SEO это то к чему надо стремиться!

    Яндекс подсказывает как развивать сайт белыми методами и чтобы он был полезен пользователю. Все материалы можно найти:
    В Блоге Вебмастеров
    На канале Академии Яндекса
    В Хелпе Яндекс Вебмастера

    Также я думаю могут помочь эти ссылки:
    Какую стратегию продвижения лучше выбрать
    Важность внутренней перелинковки
    Где научиться SEO
    Какие темы нужно знать сеошнику
    Ответ написан
    Комментировать
  • Типичные ошибки SEO специалистов, как проверять ежемесячную работу?

    RotgarSett
    @RotgarSett
    SEO Эксперт
    1.
    • возможно, действительно нанять супервизора (очень многие предоставляют эту услугу)
    • немного войти в тему, найти банальные чек-листы, проверять работу по ним и по каждому пункту с ошибкой просить объяснить почему не исправлено
    • зарегаться на SEO форуме и периодически выкладывать там свой сайт с просьбой оценить оптимизацию
    • ежемесячные отчеты требовать вообще, конечно, странно, но возможно некоторые их стандартно не предоставляют, поэтому обязательно требовать


    А вообще этот вопрос идет с самого начала работы с SEO-специалистом, а вернее с его поиска. О том как выбрать толкового сеошника я писал тут. Здесь написано где искать хорошего SEO-эксперта. И о том что должен знать грамотный SEO-специалист.

    2.
    • не проверяют банальные вещи, например редиректы с урлов слэшэм на конце и с ввв на без ввв
    • не знают и не предлагают реализовать микроразметку
    • не прописывают мета-keywords для Яндекса, так как живут в заблуждении что он не нужен
    • забивают на sitemap.xml и вообще за ней не следят
    • не дают разбивки группированной семантики по страницам
    • не проверяют за разрабами выполнены ли SEO ТЗ, типа раз разраб сказал что все готово, значит все готово (надо проверять, все мы люди)
    • забывают работать с колдунщиками Яндекса
    • покупают арендованные и просто спамные ссылки под Яндекс (так нельзя делать)
    • не покупают арендованные ссылки под зарубежный Гугл (это очень дешевый и работающий в Гугле инструмент, если умеешь его использовать)
    • совсем не учитывают коммерческие факторы
    • забывают хотя бы на минимальном уровне прорабатывать UX
    Ответ написан
    8 комментариев
  • Как поднять посещаемость сайта?

    RotgarSett
    @RotgarSett
    SEO Эксперт
    Первый шаг - выявление направленности проекта:
    • коммерческий
    • информационный
    • энциклопедический
    • социальная сеть и прочее

    Далее, после того как определились с типом ресурса, выявляем важнейшие для его оптимизации факторы ранжирования. Так, например, для коммерческих проектов во главе угла стоят коммерческие факторы ранжирования, а вот для информационного проекта необходимо учитывать полноту раскрытия информации, стиль подачи и многое другое, подробнее можно почитать в этой статье на Хабре.

    Далее есть список факторов которые необходимо учитывать всем ресурсам, это технические, семантические и поведенческие факторы.

    Для начала необходимо подготовить фундамент - провести подробный анализ техническихфакторов помогут такие программы как Netpeak Spider или Screaming Frog (программ конечно многое множество, но эти используют чаще всего). Но, к сожалению, тулсами можно проверить не все и необходимо будет изучить матчасть и проверять многие технические аспекты руками.

    Затем переходим к семантике, это очень сложный вопрос который лучше будет описать в другом ответе, но, в двух словах, необходимо убедиться что у всех страниц сайта заполнены важные элементы семантики (title, h1 и прочее) и они соответствуют контенту страницы.

    После, к UX сайта, четко продумывая взаимодействие пользователя и максимальное для него удобство. Тут же сразу учтем и часть коммерческих факторов, и оформление контента и прочее что напрямую связано с поведением пользователя.

    В финале мы получим идеально внутренне оптимизированный ресурс и можно будет приступать к внешней оптимизации.

    Старайтесь делать все максимально полезным для пользователя. Органичность содержимого сайта, реальная польза входящей ссылки для пользователя на стороннем ресурсе и прочее белое SEO это то к чему надо стремиться!

    Яндекс подсказывает как развивать сайт белыми методами и чтобы он был полезен пользователю. Все материалы можно найти:
    В Блоге Вебмастеров
    На канале Академии Яндекса
    В Хелпе Яндекс Вебмастера
    Ответ написан
    1 комментарий