• Почему сайт в гугле выдается по ссылке “http:// www. … .ru”?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    У вас не настроены редиректы (301) на основное зеркало?
    Настройте, добавьте canonical. Всё переклеится куда нужно через какое-то время.
    Ответ написан
    Комментировать
  • Насколько сейчас актуальна html карта сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    HTML-карта - способ внутренней перелинковки. Сократить глубину вложенности, например. Это ещё и недурной тип навигации, которым, правда, мало кто пользуется.
    Лишним точно не будет, хотя и обязательным тоже не назовёшь. Просто полезный инструмент, если вы знаете, для чего он нужен.
    Ответ написан
    Комментировать
  • Нужно ли убирать rel="next" с основной страницы если добавляем noindex для страниц пагинации?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Логика простая.
    ПС должны понимать, что эти вот страницы пагинации - это вот эта первая (целевая) страница. Для этого и нужны эти link rel=...
    Закрывать от индексирования пагинацию - путь к потере сканирования большого объёма сайта, ссылок на товары/инфо-странички. Зачем?
    Ваша задача - склеить страницы пагинации с целевой страничкой и не потерять пути сканирования сайта роботом, а с ними - и индексацию карточек.
    Подытожу: не надо сносить теги пагинации, это зло и технические ошибки в настройках сайта.
    Ответ написан
    Комментировать
  • Какие есть сервисы для проверки наложения "новый" фильтр от яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Нет такого фильтра, его в "Пиксель Плюс" придумали.
    А все во эти вот сервисы обнаруживают исключительно проблемы текстового характера на документе в Яндексе. Полезно, но только как инсайт, а не диагноз.
    Ответ написан
    Комментировать
  • Как корректно закрыть от индексации дубли?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Технические дубли не надо закрывать от индексации, их надо склеивать с целевой посадкой. Способов много, надо отбирать по конкретному движку и сайту. Где-то - использовать 301, где-то - канонические адреса, где-то и Clean-param достаточно под Яндекс.
    Ответ написан
    Комментировать
  • Можно ли иметь два разных сайта на адресах с www и без?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    www - это субдомен. Так что если контент будет разным, формально - можно.
    Но лучше бы так не делать во избежание путаницы. Люди, как минимум, привыкли, что в рамках www лежит основное зеркало, и это то же самое, что и без www.
    Ответ написан
    Комментировать
  • Можно ли устанавливать много 301 редиректов на сервере?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Ситуация рядовая, проблем не представляет.
    Другое дело, что сеошникам по рукам бы надавать, чтоб редиректами лишними не увлекались. То, что надо переклеить - надо переклеить. Внутренние ссылки поправить. Единственный расклад - это внешние ссылки на перемещённые страницы, но и тут стоит проверить - а ссылки эти живы ли ещё, в индексе ли? И есть ли они вообще?
    Ответ написан
    Комментировать
  • 4 файла htaccess на сайте, насколько плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Переименованные htaccess попросту игнорируются. А в каждом каталоге/папке может быть свой htaccess, со своим набором директив, если они там нужны.
    В общем, ничего страшного.
    Ответ написан
    Комментировать
  • Где научиться профессионально искать и анализировать информацию?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Во-первых, стоит смотреть информацию по теме OSINT. Много бесплатной, есть и отдельные курсы. Ну, и инструментарий: https://www.exploit-db.com/google-hacking-database
    Во-вторых, не надо пользоваться поисковыми системами типа Гугл и Яндекс. Это, в общем, и не поисковые системы, а рекламные - уже давно. Попробуйте вот такое:
    https://biznar.com/biznar/desktop/en/search.html
    https://www.faganfinder.com/
    https://www.social-searcher.com/
    Как минимум, мультипоиск явно полезнее, чем привычные псевдо-ПС с их цензурой, рекламой и фильтрацией.
    Ответ написан
    Комментировать
  • Как найти все страницы с дублированным контентом?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Screaming Frof SEO Spider, как уже отметили выше, наотличненько находит не только полные, но и частичные дубли. Можно задать порог сходства, по умолчанию - от 90%.
    Ответ написан
    Комментировать
  • Есть какие то текстовые редакторы анализа SEO текста прям во время написания статей?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Максимально похожее - "Тургенев". Платный.
    Но вообще я бы в принципе такой ерундой не парился, если речь о копирайтинге, это всё даже не вчерашний день - тошноты все эти и прочая "вода". Толковый экспертный текст в инфостиле в доработках не нуждается.
    Ответ написан
  • Что будет в случае, если запретить в robots.txt к индексации файлы JS?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Что будет?
    Криво обработанная вёрстка, жалобы, что сайт не оптимизирован под смартфоны - если, конечно, JS в вёрстке используется (а где сейчас не используется?).
    А если какой-то контент средствами JS выводится или обновляется - то его робот не увидит и не учтёт в расчётах.
    Стоит пристально изучить, какие JS однозначно стоит роботам показывать, а без каких они могут и обойтись, чтобы не грузить железяку ненужным. Я, к примеру, обычно разрешаю для сканирования все JS скопом.
    Ответ написан
    Комментировать
  • Сколько может быть ссылок в sitemap.xml?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Отталкивайтесь от ограничений Гугла. 50 тысяч адресов.
    Для удобства стоит в принципе поделить всю пачку на более осмысленные множества: категории, товары, статьи, служебное. Для Гугла - ещё и картинки, Яндекс такое не понимает.
    В принципе стоит разобраться с тем, зачем поисковикам нужен sitemap.xml: это список URL, которые должны попасть в индекс поисковиков, и которые поисковый робот должен хоть иногда обходить с каким-то приоритетом.
    В конце концов, возьмите сайты из топов и посмотрите, как всё реализовано. Всё давно известно и опробовано на практике.
    Ответ написан
    Комментировать
  • Как сделать микроразметку Shema и Open Graph?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Для начала стоит понять, для чего микроразметка нужна.
    Вот у вас товар. А вот поле с названием, вот - с артикулом, ценой, описанием. Выводим по заданной спецификации. Меняются данные в поле - меняются данные в микроразметке.
    Уточню: смотрите на синтаксис. Тот, кто ставил ТЗ, чуть перемудрил. Разметка хардкодом не нужна (RDFa подразумевается). Нужен JSON-LD.
    Всё прочее смотрите в официальных доках. Кроме них есть тонны сервисов, которые помогут сформировать разметку для чего угодно, только разберитесь, как внедрить.
    Ответ написан
    Комментировать
  • Как сделать исключения для disallow в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
    Ответ написан
    1 комментарий
  • Можно ли задавать шаблоны мета тегов в Yoast SEO?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Такая возможность есть и в бесплатной версии.
    Ответ написан
    Комментировать
  • Сколько времени хранить старый домен при переезде на новый?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Представители Гугл упоминали, что полная переклейка составляет год. После этого старый домен можно утилизировать, он бесполезен.
    Я бы в любом случае так делать не стал, если уже есть пристойная ссылочная масса на старый домен. Его можно использовать как прокси-домен, и в таком виде он всё ещё может принести немало пользы, если вы занимаетесь линкбилдингом. Подвязан - хлеба не просит, денег запредельных не тратит.
    Ответ написан
    Комментировать
  • Считает ли поисковики мусорными, те страницы, в которых нет привязок привязок фильтров в тексте при использовании SEO-фильтра?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Сформулировано крайне путано, но предположу, что речь всё-таки о тегировании страницы в рамках избавления от дублирования.
    Если поисковая система не может увидеть разницу между разными URL - надо в принципе понять, есть ли эта разница фактически. Для этого можно посчитать запросный кворум, сопоставить релевантность этих страниц одним и тем же запросам в сравнении с эталонным корпусом, в принципе глазками посмотреть - разница-то есть?
    Если речь о всё таки разном контенте, просто отличающимся минимально (название товара, артикул, цена) - можно попробовать решить проблему с помощью микроразметки и вывода каких-то вспомогательных блоков (похожие товары, тот же бренд, отзывы и т.п.).
    За счёт одних только тегов выехать можно. Но они должны не только кардинально отличаться от аналогичных на нечетком дубле, но ещё и не выламываться за пределы заданной матрицы. ПС должны чётко видеть семантические связи.
    Ну, а на следующих итерациях вопрос будет решаться на уровне пользовательских сигналов - куда пойдёт трафик по ожидаемым запросам и будет ли он конверсионным.
    Ответ написан
    Комментировать
  • Ссылка в заголовке или заголовок в ссылке — как правильно/лучше?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    А цель-то какова?
    Вообще говоря, вариант один: ссылка должна оборачивать заголовок, не наоборот. Это всё, скорее, про валидацию, и про учёт ссылочных анкоров. Но если речь об учете этих самых анкоров в рамках текстового анализа - разницы особой нету.
    Ответ написан
    Комментировать
  • Ссылка без анкора на сайте для SEO — хорошо или плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Безанкорные ссылки в рамках сайта не нужны. Это пустая ссылка, она никак не описывает страницу-реципиент. Разумеется, никто наказывать за такое не будет, но вы попросту сливаете ссылочный вес в пустоту.
    Если вам так уж важна кликабельность всего блока - продублируйте ссылку. Пусть она оборачивает div, но в рамках div будет нормальная анкорная ссылка (у вас - на заголовке).
    Это нормальная практика.
    Ответ написан
    2 комментария