Задать вопрос
  • Вопрос по индексации. Нужно индексировать галереи или нет?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Всё, что не относится к формированию шаблона, и не представляет собой ценности как источник поискового трафика, нужно закрывать от индексирования. Есть поисковый спрос - отдайте в индекс. Нету - закрывайте от роботов.
    Закрывать достаточно через robots.txt. В Yoast вы можете прописать мета robots с директивой noindex - но в данном случае это совсем не то, поскольку Яндекс не отличает пока сканирование от индексирования, для него это одно и то же, и при таком подходе вы будете постоянно сталкиваться с "колбасой" в индексе, кучей ошибок и скачками в ранжировании.
    Ответ написан
    9 комментариев
  • В чем смысл папки assets в WP?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Это часть традиционной архитектуры системы. Файлы шаблона стоит хранить вместе, чтобы потом, когда вы станете настраивать сканирование и индексацию сайта, вам не пришлось мучиться с настройками доступов. Да и поддерживать проект будет сильно проще.
    Ответ написан
    2 комментария
  • Как найти адрес админки?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Тут два варианта: либо редиректит на уровне htaccess или functions, либо речь о плагине. Плагин можно отключить, а серверные редиректы найти в системных файлах.
    Иначе, наверное, никак. В БД это едва ли есть.
    Ответ написан
    Комментировать
  • Как закрыть от индексации?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сейчас я бы рекомендовал использовать Clean-param в robots.txt. Таким образом Яндекс поймёт, о какой страничке речь, и склеит все дубли. Таким образом, вы не потеряете в поведенческих сигналах для основной посадки (как было бы при использовании Disallow), и проблема будет устранена.
    Ответ написан
  • Странные заходы на сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Это поведенческие боты в стадии нагула профилей. Ваш сайт пересекается по индексу долгосрочных интересов с сайтом, по которому в дальнейшем боты будут отрабатывать. Это не конкуренты. Им от вас нужна только кука и строчка в истории, как у любого пользователя-человека, который не в первый раз вышел в интернет.
    Защищаться или нет - решайте сами. Сейчас значительной угрозы для ранжирования такой трафик не представляет. Пользы тоже нет.
    Способы защиты - блокировки прямого трафика через htaccess, блок по заданному пулу ip - ну, сами понимаете, что это чревато потерей лояльных посетителей-людей, и не только по прямым заходам.
    Попробуйте CloudFlare, AntiBot или их связку, вариантов решения проблемы уже довольно много.
    Ответ написан
    Комментировать
  • Почему яндекс в отличие от гугл не индексирует страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Чтобы делать конкретные выводы, надо проводить хотя бы короткий аудит. Я посмотрел одну страничку из тех, что есть на сайте, но нет в индексе - глобальных проблем технического характера не увидел.
    Однако что бросается в глаза - так это отсутствие информации о компании на сайте. Яндекс не станет высоко ранжировать компанию, о которой не имеет информации. Создайте учётку в Яндекс-Бизнес и хорошо заполните профиль, в первую очередь - добавьте юридическую информацию, ИНН, ОГРН, юридический адрес и т.п. Городской телефон - вместо сотовых.
    Во-вторых, по прямому витальному запросу в выдаче торчит сайт rems.msk.ru. Это ваш сайт, партнеры, дилеры, конкуренты? У них, к слову, тоже какая-то беда с информацией о компании, но всё таки заполнено получше, и даже есть городской телефон.
    Суть в том, что Яндекс не хочет пускать в коммерческую выдачу компании, которые не знает и которым не доверяет. Я бы начинал именно с этого пункта.
    Ответ написан
    3 комментария
  • Как в этом случае собрать семантику для главной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Главная страница - это всегда хаб, полная презентация того, что есть на сайте. Если речь про семантику - то тут должны быть представлены ссылки на самые важные разделы. Цвет и объём едва ли относятся к важнейшим ключам в этом случае.
    В любом случае - тут в помощь любой приличный текстовый анализатор и сравнение с конкурентами.
    Ответ написан
    Комментировать
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Microdata и JSON-LD: Что лучше?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Microdata - устаревший формат, устаревший синтаксис. За использование никто не накажет, и лучше такая микроразметка, чем никакой, но всё таки лучше использовать JSON-LD, его рекомендуют и полноценно читают и Гугл, и Яндекс.
    Ответ написан
    Комментировать
  • Как отличить заявки от клиентов, пришедших благодаря SEO продвижению, от заявок клиентов пришедших другими путями?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вопрос-то, по сути, не про сеошку. По идее решается средствами сквозной аналитики, там инструментария достаточно.
    По факту - всё это будет вилами по воде. В рамках сеошки у вас есть Метрика, GA, данные по динамике в поиске (позиции, траф, оценка качества трафика по каким-то метрикам). И надо понимать, что во многих темах клиент может найти вас в поиске, зайти почитать-посмотреть, сохранить в закладках, потом зайти напрямую хоть даже по брендовому запросу из поиска. А потом просто позвонить или написать в мессенджер через время.
    Я бы начал с оценок конверсий в Яндекс-Метрике, если клиенту (если вы сеошите) или вам (если вы владелец бизнеса или маркетолог) нужны данные по конверсиям. Если этого будет мало - надо внедрять сквозную аналитику, тут без вариантов, кмк.
    Ответ написан
    1 комментарий
  • Почему плагины кеширования вызывают 500 статус код?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Тут отладка нужна. Предположу, что проблема с версией php на хостинге - это чаще всего встречается. некоторые хостеры позволяют менять её в админке хостинга, я бы начал с этого. Если не поможет - думать, как настроить отладку.
    Ответ написан
    Комментировать
  • Как распечатать текст чтобы он выгляжел так бужто это старая книга, пожелтевшие страницы,нечеткий текст?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вариантов много.
    а) Печатать как картинки, не как текстовые документы. Банально: берем в "Фотошопе" текстуру состаренной бумаги, на ней заданным шрифтом вставляем текст, можно добавить шумов и мусора одним из способов - я, скажем, кисти Ron Deviney использую. Если речь не о фолианте - вполне себе вариант.
    б) Выбрать шрифт, имитирующий старую и дефектную пишущую машинку или печатную машину, а то и рукописный. Таких шрифтов немного, но есть. Потёртости и выпадающую краску там дизайнер предусматривает изначально. Пример навскидку (долго не искал): https://ffont.ru/font/all-used-up
    Состаренную подложку можно вставить даже в "Ворде", была бы соответствующая картинка, их в поисковиках - тонны.
    Ну, и ничто не мешает распечатку физически "состарить" - для этого используют и разбавленный чай или кофе, и месяцок под солнцем и дождём, на сырости, и вообще на что фантазии хватит.
    Ответ написан
    Комментировать
  • "Одинаковые заголовки и описания страниц". Нужно ли исправлять?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Оцените характер трафа, посмотрите, как реализовано у топовых.
    Я не продвигал сайты такого типа, но предположу:
    а) Большой процент трафа должен подразумеваться из "Картинок" ПС. Стало быть, закрывать такие странички в ноиндекс - себе дороже.
    б) Значение имеют страницы категорий и тегов. Тегируйте каталог по классике, делайте, как в больших интернет-магазинах на оценке поискового спроса. Ну банально: есть спрос на "валпейпер 1920 тёмный киберпанк" - нужна категория.
    в) Шаблонизация рулит. Что мешает при загрузке картинки дать ей внятное название, которое будет подставляться в тайтл и дескрип? Ну там по типу "Обои на рабочий стол + Синее море с пальмой + 1920х1080 + скачать бесплатно".
    К этому добавьте микроразметку по картинкам. Она не для сниппетов нужна, а чтобы ПС понимали, чем вот эта страничка с минимумом контента отличается от той, где всё практически идентичное. В индекс всё равно всё не пойдёт, но будет заметно проще с техничкой - как минимум.
    Ответ написан
    3 комментария
  • Название товара в хлебных крошках?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Рассматривайте это звено как набор ключевых слов. Добавляют ли они что-то текстовой релевантности или просто дублируют заголовок и тайтл? Если нет - то звено лишнее.
    Тем более там не нужна кольцевая ссылка, ведущая на эту же страницу..
    Единственный вариант, при котором такое звено можно вывести на странице - если у вас в принципе нету товарной микроразметки, но есть микроразметка на "хлебных крошках". Толку там много не будет, но всё таки лишняя возможность для ПС понять, что страница - не полный дубль другой точно такой же.
    Ответ написан
    Комментировать
  • В каких случаях статус кода HTTP 200 может быть неиндексируемым?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вообще говоря никакой связи между ответом "200" и возможностью индексировать нету. Доступный для сканирования URL может быть закрыт от индексирования для поисковых роботов - на уровне robots.txt, мета, x-robots-tag, или просто указывать как на канонический URL на совсем другой документ.
    Это просто ответ сервера: "Да, такой URL есть, и его можно просканировать". Но это не значит, что его стоит скачивать и вносить в индексы.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать
  • Как СЕО-оптимизировать блог с переводными материалами?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Нет никакого "бан-листа Гугла". Есть нерезиновые индексы и нежелание индексировать и показывать в выдаче поисковый мусор. Что касается уникальности картинок - думается, у вас не та тема, чтобы иллюстрации в принципе определяли ранжирование.
    Оцените выдачу. Если тема не заспамлена рерайтами - картинки не самое важное. Другое дело, что тот же Яндекс уже сейчас активно вываливает автоматические переводы иноязычного контента, притом ранжирует их очень высоко - много выше ссылок с отечественных ресурсов, а тем более - инфо-помоек, созданных для адсенса или РСЯ.
    Ответ написан
  • Как алгоритмы Google могут определять реальное местоположение, несмотря на VPS?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Дело не в IP, а в фингерпринтах. Туда и советую копать.
    Ответ написан
    Комментировать
  • На какой CMS лучше создать лёгкий интернет-магазин?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Webasyst. Идеален для небольших магазинов. С помощью плагинов реализуемо всё - и без мусора, как у WP, например.
    С Битриксом и сравнивать не хочу, Битрикс - не CMS, а платформа для разработки.
    Ответ написан
    Комментировать
  • Почему яндекс индексирует запрещенные страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Выше уже сказали, что директивы оформлены с ошибками.
    Отмечу нюанс: robots.txt управляет сканированием, не индексацией. Это совершенно разные вещи.
    Ответ написан
    Комментировать