Задать вопрос
  • Сколько может быть ссылок в sitemap.xml?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Отталкивайтесь от ограничений Гугла. 50 тысяч адресов.
    Для удобства стоит в принципе поделить всю пачку на более осмысленные множества: категории, товары, статьи, служебное. Для Гугла - ещё и картинки, Яндекс такое не понимает.
    В принципе стоит разобраться с тем, зачем поисковикам нужен sitemap.xml: это список URL, которые должны попасть в индекс поисковиков, и которые поисковый робот должен хоть иногда обходить с каким-то приоритетом.
    В конце концов, возьмите сайты из топов и посмотрите, как всё реализовано. Всё давно известно и опробовано на практике.
    Ответ написан
    Комментировать
  • Как сделать микроразметку Shema и Open Graph?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Для начала стоит понять, для чего микроразметка нужна.
    Вот у вас товар. А вот поле с названием, вот - с артикулом, ценой, описанием. Выводим по заданной спецификации. Меняются данные в поле - меняются данные в микроразметке.
    Уточню: смотрите на синтаксис. Тот, кто ставил ТЗ, чуть перемудрил. Разметка хардкодом не нужна (RDFa подразумевается). Нужен JSON-LD.
    Всё прочее смотрите в официальных доках. Кроме них есть тонны сервисов, которые помогут сформировать разметку для чего угодно, только разберитесь, как внедрить.
    Ответ написан
    Комментировать
  • Как сделать исключения для disallow в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист
    robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
    Ответ написан
    1 комментарий
  • Можно ли задавать шаблоны мета тегов в Yoast SEO?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Такая возможность есть и в бесплатной версии.
    Ответ написан
    Комментировать
  • Сколько времени хранить старый домен при переезде на новый?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Представители Гугл упоминали, что полная переклейка составляет год. После этого старый домен можно утилизировать, он бесполезен.
    Я бы в любом случае так делать не стал, если уже есть пристойная ссылочная масса на старый домен. Его можно использовать как прокси-домен, и в таком виде он всё ещё может принести немало пользы, если вы занимаетесь линкбилдингом. Подвязан - хлеба не просит, денег запредельных не тратит.
    Ответ написан
    Комментировать
  • Считает ли поисковики мусорными, те страницы, в которых нет привязок привязок фильтров в тексте при использовании SEO-фильтра?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сформулировано крайне путано, но предположу, что речь всё-таки о тегировании страницы в рамках избавления от дублирования.
    Если поисковая система не может увидеть разницу между разными URL - надо в принципе понять, есть ли эта разница фактически. Для этого можно посчитать запросный кворум, сопоставить релевантность этих страниц одним и тем же запросам в сравнении с эталонным корпусом, в принципе глазками посмотреть - разница-то есть?
    Если речь о всё таки разном контенте, просто отличающимся минимально (название товара, артикул, цена) - можно попробовать решить проблему с помощью микроразметки и вывода каких-то вспомогательных блоков (похожие товары, тот же бренд, отзывы и т.п.).
    За счёт одних только тегов выехать можно. Но они должны не только кардинально отличаться от аналогичных на нечетком дубле, но ещё и не выламываться за пределы заданной матрицы. ПС должны чётко видеть семантические связи.
    Ну, а на следующих итерациях вопрос будет решаться на уровне пользовательских сигналов - куда пойдёт трафик по ожидаемым запросам и будет ли он конверсионным.
    Ответ написан
    Комментировать
  • Ссылка в заголовке или заголовок в ссылке — как правильно/лучше?

    vpetrov
    @vpetrov
    частный SEO-специалист
    А цель-то какова?
    Вообще говоря, вариант один: ссылка должна оборачивать заголовок, не наоборот. Это всё, скорее, про валидацию, и про учёт ссылочных анкоров. Но если речь об учете этих самых анкоров в рамках текстового анализа - разницы особой нету.
    Ответ написан
    Комментировать
  • Ссылка без анкора на сайте для SEO — хорошо или плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Безанкорные ссылки в рамках сайта не нужны. Это пустая ссылка, она никак не описывает страницу-реципиент. Разумеется, никто наказывать за такое не будет, но вы попросту сливаете ссылочный вес в пустоту.
    Если вам так уж важна кликабельность всего блока - продублируйте ссылку. Пусть она оборачивает div, но в рамках div будет нормальная анкорная ссылка (у вас - на заголовке).
    Это нормальная практика.
    Ответ написан
    2 комментария
  • Как поисковики относятся к тому, что у сайта все внешние ссылки ведут только на одну (главную) страницу?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Если у сайта только одна страница, которую цитируют другие - разве это хорошо и естественно? В нормальном случае люди в принципе не ходят на главные страницы, если речь - о сеошке. Из поиска они попадают на конкретные посадочные страницы по конкретным же запросам. А тут - ну, либо бренд очень раскачанный, уровня WB, либо ссылочный профиль всё таки кривой.
    И да, в Гугл такая схема может и работать. В Яндекс - нет, разве что как цитирование бренда. В счёт идут только анкорные ссылки, и лучше всего - ведущие на конкретные посадочные страницы. Проверяется очень просто: посмотрите на "быстрые ссылки" в Вебмастере. Там в предложенных - именно внешние анкоры.
    Ответ написан
    Комментировать
  • Что за экшен для фотошопа?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Конкретно тут попробуйте экшены Маргулиса - особливо глядя на H/K, Skin Desaturation, а потом аккуратненько - Color Boost, возможно, по масочке.
    Очень похоже выглядит на результаты его "открыточной" машинки.
    Ответ написан
    6 комментариев
  • Имеет ли значение URL?

    vpetrov
    @vpetrov
    частный SEO-специалист
    При прочих равных хорошо структурированный url с ключами может быть маленьким фактором в плюс.
    Но этих "прочих равных" не бывает.
    Можно подзабить, тем более, что у вас ЧПУ - в обоих примерах.
    Ответ написан
    Комментировать
  • Как изменить текст-описание сайта (при поисковом запросе) или при пересылке его?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Это метатег Description. Хотя, если он заполнен слишком криво, Гугл может подтянуть со странички что-то более подходящее.
    Ответ написан
    Комментировать
  • Как остановить отаку ботов на сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Если речь про поведенческих ботов - то тут проверенная связка CloudFlare + Antibot. Никакими плагинами вы с проблемой не справитесь, поскольку всё упирается в невозможность полноценно выявлять ботов.
    Можно, конечно, заблокировать переходы из ненужных стран, подсетей и т.п., но практика показывает, что вы таким образом неизбежно блокнете и живую целевую аудиторию.
    Проблема характерна для любого сайта в топах, где жив трафик, практически все решают её с помощью CF.
    Ответ написан
    Комментировать
  • Как убрать автогенерацию rel="oreferrer noopener" в WordPress?

    vpetrov
    @vpetrov
    частный SEO-специалист
    А зачем убирать?
    Это, в общем-то, опция безопасности, закрывающая одну старую матерую дырку.
    Ответ написан
    Комментировать
  • При парсинге сайта в некоторых ссылках выходить ошибка 404 и его не парсить?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Почитайте справку Гугла про софт-404. Очевидно, что сервер отдаёт роботу не совсем то, что отдаст нормальному живому человеку. Когда вы в браузере получаете нормальную страницу, робот может получить обломок.
    Если же речь о реальных 404 – то и здесь стоит оценить системные ресурсы и настройки парсинга. Вероятно, сервер просто не вывозит нагрузки.
    Ответ написан
    Комментировать
  • Можно ли создавать динамические страницы на основе url, без “?”, “&”, “=” или как их индексировать?

    vpetrov
    @vpetrov
    частный SEO-специалист
    В принципе большинство параметров отлично попадает в индекс (за исключением хэшей - #).
    Видится, что проблема у вас вовсе не с параметрами, а с качеством страниц, отсутствием трафика на них и банально - входящих ссылок, если эти страницы формируются динамически - например, фильтратором.
    Простой пример – это генерация страниц фильтратором "Битрикс". Для того, чтобы такие странички приносили трафик, поисковая система должна сообразить, по каким запросам туда попадают люди. Контент должен всерьёз отличаться от основной страницы (без фильтрации). А URL с подставляемыми параметрами не должен меняться в зависимости от того, в каком порядке выбраны эти самые параметры.
    Решение тут старое и простое: настройка 301-х редиректов с технической страницы на основную посадочную, где вы можете задать уникальный тайтл, мета, уникальный контент вдобавок к выборке. Так работает большинство плагинов для интернет-магазинов с фильтраторами.
    Думается, другие случаи стоит решать по этому же принципу.
    Ответ написан
    Комментировать
  • Как обезопасить сайт на wordpress от взломов Malware?

    vpetrov
    @vpetrov
    частный SEO-специалист
    "Дырок" основных не так много.
    а) Если речь о виртуальном хостинге – то это первая вероятная дырка. Через шелл или БД.
    б) "Нулленый" шаблон или просто кривой шаблон. Их краулерами обнаруживают те, кто знает об уязвимости или сам "закладочку" вкрячил.
    в) Плагины.
    Попробуйте Wordfence установить. Как минимум, "закладки" в плагинах и шаблонах он находит. А на сайте у них информации по уязвимостям и проблемным шаблонам/плагинам - море. Я бы с этого начал.
    Ответ написан
    Комментировать
  • Почему продолжает индексироваться сайт?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сколько путаницы.
    Чтобы деиндексировать сайт, правильнее всего всем страницам присвоить мета "robots" со значением noindex.
    Мгновенного результата это не даст. Впрочем, мгновенного результата это не даст при любом способе.
    В robots.txt вы прописываете запрет на сканирование - что вовсе не равнозначно запрету на индексирование. В выдаче достаточно сайтов, сниппеты с которых не выводятся: скачивать странички запрещено директивами robots.txt. А ссылки в выдаче - есть. И даже в топах. Потому что даже если там есть мета с запретом на индексирование, ПС об этом узнать не могут - поскольку сканировать/скачивать страницу им нельзя.
    Помимо мета рекомендую воспользоваться инструментарием Яндекс-Вебмастер и Search Console. Там есть инструменты, позволяющие напрямую запросить удаление из индекса ненужного контента.
    6488bafe29da1126898913.jpeg
    И имейте в виду, что все эти меры в принципе ничего не гарантируют. Это лишь пожелания, не приказы. А тот же гуглобот по деиндексированным и удаленным URL может потом ходить годами. Зачем – не знаю.
    Ответ написан
    Комментировать
  • Как править уже работающий сайт на Wordpress?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Процедуры-то стандартные.
    Мелочёвку можно и на проде править чаще всего. А для редизайна - на копии, где-нибудь на техническом домене. Чтобы всё уронить по такой схеме - постараться надо.
    Ответ написан
    Комментировать
  • Попахивает накруткой поведенческих?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не факт, вообще не факт.
    Яндекс с февраля колбасить начало, апдейты ежедневно и чаще. Судя по динамике, что-то регулярно пересчитывается, и сайт подрастает. А потом пересчитывается другая группа метрик, и сайт валится. Например, у страниц высокая текстовая/коммерческая релевантность, но недостаток поведенческих. Или ровно наоборот.
    То, что Гугл идёт ровно - ни о чем не говорит. Там всё вообще очень медленно, а если сайт в принципе там позиций не имеет – то тем более.
    Задайте своим подрядчикам по SEO прямой вопрос: в чем проблема, с чем связаны скачки. Для старта - оптимальный вариант. Если внятно не ответят – ищите стороннего аудитора.
    Ответ написан
    Комментировать