Задать вопрос
@megaterminator

Стоит ли в robots.txt указывать отдельные секции для каждого user-agent?

Есть ли разница с точки зрения поисковой оптимизации между этим:
User-agent: *
Disallow:
и этим:
User-agent: Yandex
Disallow: 

User-agent: Googlebot
Disallow:
?
Сайт -- простая визитка. Я правильно делаю, что ничего не запрещаю для индексации?
  • Вопрос задан
  • 777 просмотров
Подписаться 1 Оценить Комментировать
Решения вопроса 1
kopcap_va
@kopcap_va
SEO Consultant
В вашей ситуации с точки зрения оптимизации скорее всего разницы нет.

Использовать разные User-agent бывает необходимо для решения определенных задач.

Например:
При использовании User-agent: * - бот Adsense (User-agent: Mediapartners-Google) не может отображать объявления в заблокированных разделах сайта. В этом случае логично использовать разные секции.

Для Google и Yandex также может возникнуть необходимость использования разных инструкций, но пока у вас ее нет - не парьтесь.
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 3
swipeshot
@swipeshot
Учусь на ошибках.
User-agent: * - любой бот.
Заодно почитайте.
Ответ написан
un1t
@un1t
Есть общие правила для всех ботов, но каждый бот поддерживает дополнительные наборы правил.
Если используем только общие директивы, то достаточно для * указать.
Ответ написан
Комментировать
только в том случае если в определенном браузере у вас вылез индекс не требуемого раздела, как правило в гугле, по сему для него особого вы отдельно пишите правило запретить такой то раздел пнинудительно, в остальном нет.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы