• Как поисковики относятся к тому, что у сайта все внешние ссылки ведут только на одну (главную) страницу?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Если у сайта только одна страница, которую цитируют другие - разве это хорошо и естественно? В нормальном случае люди в принципе не ходят на главные страницы, если речь - о сеошке. Из поиска они попадают на конкретные посадочные страницы по конкретным же запросам. А тут - ну, либо бренд очень раскачанный, уровня WB, либо ссылочный профиль всё таки кривой.
    И да, в Гугл такая схема может и работать. В Яндекс - нет, разве что как цитирование бренда. В счёт идут только анкорные ссылки, и лучше всего - ведущие на конкретные посадочные страницы. Проверяется очень просто: посмотрите на "быстрые ссылки" в Вебмастере. Там в предложенных - именно внешние анкоры.
    Ответ написан
    Комментировать
  • Какой движок для магазина выбрать? как дела у shop-script?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сужу с точки зрения сеошки. shop-script и OpenCart рвут Битрикс как тузик грелку, если речь о сравнительно небольшом интернет-магазине (в пределах 30-50 тыс. позиций). Скромно по системным ресурсам, есть все плагины, необходимые для каталога и мультирегиональности, по ценнику за всё про всё - разница в 2-3 раза. Сильно меньше лагов при дальнейшей работе. Куча качественных шаблонов уровня "отдай 50$ и сразу в дело".
    Битрикс же, кмк, застрял в реалиях 5-7-летней давности и своих денег не стоит.
    Ответ написан
    Комментировать
  • Что за экшен для фотошопа?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Конкретно тут попробуйте экшены Маргулиса - особливо глядя на H/K, Skin Desaturation, а потом аккуратненько - Color Boost, возможно, по масочке.
    Очень похоже выглядит на результаты его "открыточной" машинки.
    Ответ написан
    6 комментариев
  • Имеет ли значение URL?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    При прочих равных хорошо структурированный url с ключами может быть маленьким фактором в плюс.
    Но этих "прочих равных" не бывает.
    Можно подзабить, тем более, что у вас ЧПУ - в обоих примерах.
    Ответ написан
    Комментировать
  • Как изменить текст-описание сайта (при поисковом запросе) или при пересылке его?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Это метатег Description. Хотя, если он заполнен слишком криво, Гугл может подтянуть со странички что-то более подходящее.
    Ответ написан
    Комментировать
  • Как остановить отаку ботов на сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Если речь про поведенческих ботов - то тут проверенная связка CloudFlare + Antibot. Никакими плагинами вы с проблемой не справитесь, поскольку всё упирается в невозможность полноценно выявлять ботов.
    Можно, конечно, заблокировать переходы из ненужных стран, подсетей и т.п., но практика показывает, что вы таким образом неизбежно блокнете и живую целевую аудиторию.
    Проблема характерна для любого сайта в топах, где жив трафик, практически все решают её с помощью CF.
    Ответ написан
    Комментировать
  • Как убрать автогенерацию rel="oreferrer noopener" в WordPress?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    А зачем убирать?
    Это, в общем-то, опция безопасности, закрывающая одну старую матерую дырку.
    Ответ написан
    Комментировать
  • При парсинге сайта в некоторых ссылках выходить ошибка 404 и его не парсить?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Почитайте справку Гугла про софт-404. Очевидно, что сервер отдаёт роботу не совсем то, что отдаст нормальному живому человеку. Когда вы в браузере получаете нормальную страницу, робот может получить обломок.
    Если же речь о реальных 404 – то и здесь стоит оценить системные ресурсы и настройки парсинга. Вероятно, сервер просто не вывозит нагрузки.
    Ответ написан
    Комментировать
  • Можно ли создавать динамические страницы на основе url, без “?”, “&”, “=” или как их индексировать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    В принципе большинство параметров отлично попадает в индекс (за исключением хэшей - #).
    Видится, что проблема у вас вовсе не с параметрами, а с качеством страниц, отсутствием трафика на них и банально - входящих ссылок, если эти страницы формируются динамически - например, фильтратором.
    Простой пример – это генерация страниц фильтратором "Битрикс". Для того, чтобы такие странички приносили трафик, поисковая система должна сообразить, по каким запросам туда попадают люди. Контент должен всерьёз отличаться от основной страницы (без фильтрации). А URL с подставляемыми параметрами не должен меняться в зависимости от того, в каком порядке выбраны эти самые параметры.
    Решение тут старое и простое: настройка 301-х редиректов с технической страницы на основную посадочную, где вы можете задать уникальный тайтл, мета, уникальный контент вдобавок к выборке. Так работает большинство плагинов для интернет-магазинов с фильтраторами.
    Думается, другие случаи стоит решать по этому же принципу.
    Ответ написан
    Комментировать
  • Как обезопасить сайт на wordpress от взломов Malware?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    "Дырок" основных не так много.
    а) Если речь о виртуальном хостинге – то это первая вероятная дырка. Через шелл или БД.
    б) "Нулленый" шаблон или просто кривой шаблон. Их краулерами обнаруживают те, кто знает об уязвимости или сам "закладочку" вкрячил.
    в) Плагины.
    Попробуйте Wordfence установить. Как минимум, "закладки" в плагинах и шаблонах он находит. А на сайте у них информации по уязвимостям и проблемным шаблонам/плагинам - море. Я бы с этого начал.
    Ответ написан
    Комментировать
  • Почему продолжает индексироваться сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сколько путаницы.
    Чтобы деиндексировать сайт, правильнее всего всем страницам присвоить мета "robots" со значением noindex.
    Мгновенного результата это не даст. Впрочем, мгновенного результата это не даст при любом способе.
    В robots.txt вы прописываете запрет на сканирование - что вовсе не равнозначно запрету на индексирование. В выдаче достаточно сайтов, сниппеты с которых не выводятся: скачивать странички запрещено директивами robots.txt. А ссылки в выдаче - есть. И даже в топах. Потому что даже если там есть мета с запретом на индексирование, ПС об этом узнать не могут - поскольку сканировать/скачивать страницу им нельзя.
    Помимо мета рекомендую воспользоваться инструментарием Яндекс-Вебмастер и Search Console. Там есть инструменты, позволяющие напрямую запросить удаление из индекса ненужного контента.
    6488bafe29da1126898913.jpeg
    И имейте в виду, что все эти меры в принципе ничего не гарантируют. Это лишь пожелания, не приказы. А тот же гуглобот по деиндексированным и удаленным URL может потом ходить годами. Зачем – не знаю.
    Ответ написан
    Комментировать
  • Как править уже работающий сайт на Wordpress?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Процедуры-то стандартные.
    Мелочёвку можно и на проде править чаще всего. А для редизайна - на копии, где-нибудь на техническом домене. Чтобы всё уронить по такой схеме - постараться надо.
    Ответ написан
    Комментировать
  • Попахивает накруткой поведенческих?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Не факт, вообще не факт.
    Яндекс с февраля колбасить начало, апдейты ежедневно и чаще. Судя по динамике, что-то регулярно пересчитывается, и сайт подрастает. А потом пересчитывается другая группа метрик, и сайт валится. Например, у страниц высокая текстовая/коммерческая релевантность, но недостаток поведенческих. Или ровно наоборот.
    То, что Гугл идёт ровно - ни о чем не говорит. Там всё вообще очень медленно, а если сайт в принципе там позиций не имеет – то тем более.
    Задайте своим подрядчикам по SEO прямой вопрос: в чем проблема, с чем связаны скачки. Для старта - оптимальный вариант. Если внятно не ответят – ищите стороннего аудитора.
    Ответ написан
    Комментировать
  • Как прописать meta тег для всех товарных страниц?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Любой популярный плагин для SEO под WP позволяет шаблонизировать мета для каждой таксономии. Обычно речь про подстановку заголовка плюс что-то по выбранным шаблончикам. Это в настройках плагина надо смотреть. Для примера - RankMath. В других тоже такое есть.6474fc6aaa9d2918204878.jpeg
    Ответ написан
    Комментировать
  • Как настроить ЧПУ фильтр в 1с Битрикс при интеграции с 1с КА?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Возьмите для анализа любое готовое решение. "Сотбит SEO умного фильтра" - как образец, старый и работающий.
    Ответ написан
    Комментировать
  • Аномально поднялась посещаемость сайта, что делать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Вы позиции-то мониторите? Характер трафика? Запросы, посадки?
    Яндекс мог подкинуть вас в топы по каким-то ключам на время. На вас мог литься траф, связанный с нагулом ботов. Много чего могло быть, данных вы не предоставили для выводов.
    Ответ написан
    2 комментария
  • Как быстро обновляются title и description в Яндексе?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Процесс имеет несколько стадий и фаз. Надо понимать, что Яндекс работает апдейтами, и в свои многочисленные индексы данные вносит не за один проход. И апдейты эти неравномерны в принципе.
    Если сильно обобщить, то по сайту со средней посещалкой и частотой сканирования метаданные обновляются за 5-10 дней.
    Ответ написан
    Комментировать
  • В чём деловая польза нейросетей?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Странный вопрос.
    Нейросеть способна обработать такой объём данных, который никакой человек обработать физически не в состоянии. Если вам нужны найти скрытые связи, из монолита вычленить скульптуру, вообще работать с данными - тут нейросеть незаменима.
    То, о чём вы говорите - это крайне попсовое и глупое применение мощнейшего инструмента. И этот инструмент в доступе уже лет примерно 20. Просто кожаным показали самые примитивные возможности - и этого хватило, чтобы массы забились в оргазме и ужасе.
    Ответ написан
    Комментировать
  • Как обойти 429 ошибку?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Ключевое слово тут - фингерпринты. Просто менять IP и UA бывает сильно недостаточно, если ресурс подразумевает хоть какую-то защиту.
    Ответ написан
  • Долгий TTfB на Wordpress. Что делать?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Дебажить надо, чтобы понять, откуда тормоза. Причин-то может быть тонна:
    • нехватка ресурсов сервера и его физическое расположение
    • неоптимизированная БД
    • избыток запросов
    • кривая CDN
    • проблемы с DNS

    и много чего ещё.
    Ответ написан
    Комментировать