Ответы пользователя по тегу Яндекс
  • Как убрать дубли с помощью canonical?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Частичные копии - не технические дубли. Поисковая система такой canonical может запросто проигнорировать. Вопрос правильнее решить настройками шаблонизации мета и (или) уникализации контента.
    Кроме того, ситуация может иметь временный характер, тем более - в Яндекс. Он постоянно что-то пересчитывает, закидывает в индекс и выбрасывает - иначе не умеет.
    Ответ написан
    Комментировать
  • Как настроить в админке WP отправку двух заголовков к каждой новости - для роботов Яндекса и Гугла?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то - не про SEO.
    Формируйте два фида, где в заголовки будут подтягиваться разные поля в заголовок.
    Тут толковый разработчик нужен, их много, а задачка не самая сложная.
    Ответ написан
  • Какие есть сервисы для проверки наложения "новый" фильтр от яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет такого фильтра, его в "Пиксель Плюс" придумали.
    А все во эти вот сервисы обнаруживают исключительно проблемы текстового характера на документе в Яндексе. Полезно, но только как инсайт, а не диагноз.
    Ответ написан
    Комментировать
  • Аномально поднялась посещаемость сайта, что делать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вы позиции-то мониторите? Характер трафика? Запросы, посадки?
    Яндекс мог подкинуть вас в топы по каким-то ключам на время. На вас мог литься траф, связанный с нагулом ботов. Много чего могло быть, данных вы не предоставили для выводов.
    Ответ написан
    2 комментария
  • "Одинаковые заголовки и описания страниц". Нужно ли исправлять?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Оцените характер трафа, посмотрите, как реализовано у топовых.
    Я не продвигал сайты такого типа, но предположу:
    а) Большой процент трафа должен подразумеваться из "Картинок" ПС. Стало быть, закрывать такие странички в ноиндекс - себе дороже.
    б) Значение имеют страницы категорий и тегов. Тегируйте каталог по классике, делайте, как в больших интернет-магазинах на оценке поискового спроса. Ну банально: есть спрос на "валпейпер 1920 тёмный киберпанк" - нужна категория.
    в) Шаблонизация рулит. Что мешает при загрузке картинки дать ей внятное название, которое будет подставляться в тайтл и дескрип? Ну там по типу "Обои на рабочий стол + Синее море с пальмой + 1920х1080 + скачать бесплатно".
    К этому добавьте микроразметку по картинкам. Она не для сниппетов нужна, а чтобы ПС понимали, чем вот эта страничка с минимумом контента отличается от той, где всё практически идентичное. В индекс всё равно всё не пойдёт, но будет заметно проще с техничкой - как минимум.
    Ответ написан
    3 комментария
  • Название товара в хлебных крошках?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Рассматривайте это звено как набор ключевых слов. Добавляют ли они что-то текстовой релевантности или просто дублируют заголовок и тайтл? Если нет - то звено лишнее.
    Тем более там не нужна кольцевая ссылка, ведущая на эту же страницу..
    Единственный вариант, при котором такое звено можно вывести на странице - если у вас в принципе нету товарной микроразметки, но есть микроразметка на "хлебных крошках". Толку там много не будет, но всё таки лишняя возможность для ПС понять, что страница - не полный дубль другой точно такой же.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать
  • Почему яндекс индексирует запрещенные страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Выше уже сказали, что директивы оформлены с ошибками.
    Отмечу нюанс: robots.txt управляет сканированием, не индексацией. Это совершенно разные вещи.
    Ответ написан
    Комментировать