Ответы пользователя по тегу Поисковая оптимизация
  • Как поисковики относятся к тому, что у сайта все внешние ссылки ведут только на одну (главную) страницу?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Если у сайта только одна страница, которую цитируют другие - разве это хорошо и естественно? В нормальном случае люди в принципе не ходят на главные страницы, если речь - о сеошке. Из поиска они попадают на конкретные посадочные страницы по конкретным же запросам. А тут - ну, либо бренд очень раскачанный, уровня WB, либо ссылочный профиль всё таки кривой.
    И да, в Гугл такая схема может и работать. В Яндекс - нет, разве что как цитирование бренда. В счёт идут только анкорные ссылки, и лучше всего - ведущие на конкретные посадочные страницы. Проверяется очень просто: посмотрите на "быстрые ссылки" в Вебмастере. Там в предложенных - именно внешние анкоры.
    Ответ написан
    Комментировать
  • Имеет ли значение URL?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    При прочих равных хорошо структурированный url с ключами может быть маленьким фактором в плюс.
    Но этих "прочих равных" не бывает.
    Можно подзабить, тем более, что у вас ЧПУ - в обоих примерах.
    Ответ написан
    Комментировать
  • Как изменить текст-описание сайта (при поисковом запросе) или при пересылке его?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Это метатег Description. Хотя, если он заполнен слишком криво, Гугл может подтянуть со странички что-то более подходящее.
    Ответ написан
    Комментировать
  • Как убрать автогенерацию rel="oreferrer noopener" в WordPress?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    А зачем убирать?
    Это, в общем-то, опция безопасности, закрывающая одну старую матерую дырку.
    Ответ написан
    Комментировать
  • Можно ли создавать динамические страницы на основе url, без “?”, “&”, “=” или как их индексировать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    В принципе большинство параметров отлично попадает в индекс (за исключением хэшей - #).
    Видится, что проблема у вас вовсе не с параметрами, а с качеством страниц, отсутствием трафика на них и банально - входящих ссылок, если эти страницы формируются динамически - например, фильтратором.
    Простой пример – это генерация страниц фильтратором "Битрикс". Для того, чтобы такие странички приносили трафик, поисковая система должна сообразить, по каким запросам туда попадают люди. Контент должен всерьёз отличаться от основной страницы (без фильтрации). А URL с подставляемыми параметрами не должен меняться в зависимости от того, в каком порядке выбраны эти самые параметры.
    Решение тут старое и простое: настройка 301-х редиректов с технической страницы на основную посадочную, где вы можете задать уникальный тайтл, мета, уникальный контент вдобавок к выборке. Так работает большинство плагинов для интернет-магазинов с фильтраторами.
    Думается, другие случаи стоит решать по этому же принципу.
    Ответ написан
    Комментировать
  • Почему продолжает индексироваться сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сколько путаницы.
    Чтобы деиндексировать сайт, правильнее всего всем страницам присвоить мета "robots" со значением noindex.
    Мгновенного результата это не даст. Впрочем, мгновенного результата это не даст при любом способе.
    В robots.txt вы прописываете запрет на сканирование - что вовсе не равнозначно запрету на индексирование. В выдаче достаточно сайтов, сниппеты с которых не выводятся: скачивать странички запрещено директивами robots.txt. А ссылки в выдаче - есть. И даже в топах. Потому что даже если там есть мета с запретом на индексирование, ПС об этом узнать не могут - поскольку сканировать/скачивать страницу им нельзя.
    Помимо мета рекомендую воспользоваться инструментарием Яндекс-Вебмастер и Search Console. Там есть инструменты, позволяющие напрямую запросить удаление из индекса ненужного контента.
    6488bafe29da1126898913.jpeg
    И имейте в виду, что все эти меры в принципе ничего не гарантируют. Это лишь пожелания, не приказы. А тот же гуглобот по деиндексированным и удаленным URL может потом ходить годами. Зачем – не знаю.
    Ответ написан
    Комментировать
  • Попахивает накруткой поведенческих?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не факт, вообще не факт.
    Яндекс с февраля колбасить начало, апдейты ежедневно и чаще. Судя по динамике, что-то регулярно пересчитывается, и сайт подрастает. А потом пересчитывается другая группа метрик, и сайт валится. Например, у страниц высокая текстовая/коммерческая релевантность, но недостаток поведенческих. Или ровно наоборот.
    То, что Гугл идёт ровно - ни о чем не говорит. Там всё вообще очень медленно, а если сайт в принципе там позиций не имеет – то тем более.
    Задайте своим подрядчикам по SEO прямой вопрос: в чем проблема, с чем связаны скачки. Для старта - оптимальный вариант. Если внятно не ответят – ищите стороннего аудитора.
    Ответ написан
    Комментировать
  • Как настроить ЧПУ фильтр в 1с Битрикс при интеграции с 1с КА?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Возьмите для анализа любое готовое решение. "Сотбит SEO умного фильтра" - как образец, старый и работающий.
    Ответ написан
    Комментировать
  • Аномально поднялась посещаемость сайта, что делать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вы позиции-то мониторите? Характер трафика? Запросы, посадки?
    Яндекс мог подкинуть вас в топы по каким-то ключам на время. На вас мог литься траф, связанный с нагулом ботов. Много чего могло быть, данных вы не предоставили для выводов.
    Ответ написан
    2 комментария
  • Как быстро обновляются title и description в Яндексе?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Процесс имеет несколько стадий и фаз. Надо понимать, что Яндекс работает апдейтами, и в свои многочисленные индексы данные вносит не за один проход. И апдейты эти неравномерны в принципе.
    Если сильно обобщить, то по сайту со средней посещалкой и частотой сканирования метаданные обновляются за 5-10 дней.
    Ответ написан
    Комментировать
  • Логика структуры мультиязычного сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Я так понимаю, что целевая поисковая система – Гугл. И если так, то программиста надо как-то осадить.
    Структура многоязычного сайта должна использовать hreflang. Вот у вас основной, дефолтный домен - на украинском. У него есть вспомогательные языковые версии - русская и английская. И вы просто метатегом указываете поисковой системе, что у странички есть альтернативные версии на других языках. Соответственно, в поиске гугл и будет показывать страницу, соответствующую языку запроса и определенной локации. Вы таким образом просто подклеиваете языковые разделы к основному домену, к главной странице – самой весомой странице сайта.
    Клеить домен к папкам - это, конечно, сильная идея. Прогерам стоит вообще запретить трогать редиректы без разрешения и чёткого ТЗ, это каждый раз настоящая авария.
    Ответ написан
    Комментировать
  • Как закрыть от индексации?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сейчас я бы рекомендовал использовать Clean-param в robots.txt. Таким образом Яндекс поймёт, о какой страничке речь, и склеит все дубли. Таким образом, вы не потеряете в поведенческих сигналах для основной посадки (как было бы при использовании Disallow), и проблема будет устранена.
    Ответ написан
  • Почему яндекс в отличие от гугл не индексирует страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Чтобы делать конкретные выводы, надо проводить хотя бы короткий аудит. Я посмотрел одну страничку из тех, что есть на сайте, но нет в индексе - глобальных проблем технического характера не увидел.
    Однако что бросается в глаза - так это отсутствие информации о компании на сайте. Яндекс не станет высоко ранжировать компанию, о которой не имеет информации. Создайте учётку в Яндекс-Бизнес и хорошо заполните профиль, в первую очередь - добавьте юридическую информацию, ИНН, ОГРН, юридический адрес и т.п. Городской телефон - вместо сотовых.
    Во-вторых, по прямому витальному запросу в выдаче торчит сайт rems.msk.ru. Это ваш сайт, партнеры, дилеры, конкуренты? У них, к слову, тоже какая-то беда с информацией о компании, но всё таки заполнено получше, и даже есть городской телефон.
    Суть в том, что Яндекс не хочет пускать в коммерческую выдачу компании, которые не знает и которым не доверяет. Я бы начинал именно с этого пункта.
    Ответ написан
    3 комментария
  • Как в этом случае собрать семантику для главной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Главная страница - это всегда хаб, полная презентация того, что есть на сайте. Если речь про семантику - то тут должны быть представлены ссылки на самые важные разделы. Цвет и объём едва ли относятся к важнейшим ключам в этом случае.
    В любом случае - тут в помощь любой приличный текстовый анализатор и сравнение с конкурентами.
    Ответ написан
    Комментировать
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Microdata и JSON-LD: Что лучше?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Microdata - устаревший формат, устаревший синтаксис. За использование никто не накажет, и лучше такая микроразметка, чем никакой, но всё таки лучше использовать JSON-LD, его рекомендуют и полноценно читают и Гугл, и Яндекс.
    Ответ написан
    Комментировать
  • Как отличить заявки от клиентов, пришедших благодаря SEO продвижению, от заявок клиентов пришедших другими путями?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вопрос-то, по сути, не про сеошку. По идее решается средствами сквозной аналитики, там инструментария достаточно.
    По факту - всё это будет вилами по воде. В рамках сеошки у вас есть Метрика, GA, данные по динамике в поиске (позиции, траф, оценка качества трафика по каким-то метрикам). И надо понимать, что во многих темах клиент может найти вас в поиске, зайти почитать-посмотреть, сохранить в закладках, потом зайти напрямую хоть даже по брендовому запросу из поиска. А потом просто позвонить или написать в мессенджер через время.
    Я бы начал с оценок конверсий в Яндекс-Метрике, если клиенту (если вы сеошите) или вам (если вы владелец бизнеса или маркетолог) нужны данные по конверсиям. Если этого будет мало - надо внедрять сквозную аналитику, тут без вариантов, кмк.
    Ответ написан
    1 комментарий
  • "Одинаковые заголовки и описания страниц". Нужно ли исправлять?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Оцените характер трафа, посмотрите, как реализовано у топовых.
    Я не продвигал сайты такого типа, но предположу:
    а) Большой процент трафа должен подразумеваться из "Картинок" ПС. Стало быть, закрывать такие странички в ноиндекс - себе дороже.
    б) Значение имеют страницы категорий и тегов. Тегируйте каталог по классике, делайте, как в больших интернет-магазинах на оценке поискового спроса. Ну банально: есть спрос на "валпейпер 1920 тёмный киберпанк" - нужна категория.
    в) Шаблонизация рулит. Что мешает при загрузке картинки дать ей внятное название, которое будет подставляться в тайтл и дескрип? Ну там по типу "Обои на рабочий стол + Синее море с пальмой + 1920х1080 + скачать бесплатно".
    К этому добавьте микроразметку по картинкам. Она не для сниппетов нужна, а чтобы ПС понимали, чем вот эта страничка с минимумом контента отличается от той, где всё практически идентичное. В индекс всё равно всё не пойдёт, но будет заметно проще с техничкой - как минимум.
    Ответ написан
    3 комментария
  • Название товара в хлебных крошках?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Рассматривайте это звено как набор ключевых слов. Добавляют ли они что-то текстовой релевантности или просто дублируют заголовок и тайтл? Если нет - то звено лишнее.
    Тем более там не нужна кольцевая ссылка, ведущая на эту же страницу..
    Единственный вариант, при котором такое звено можно вывести на странице - если у вас в принципе нету товарной микроразметки, но есть микроразметка на "хлебных крошках". Толку там много не будет, но всё таки лишняя возможность для ПС понять, что страница - не полный дубль другой точно такой же.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать