Задать вопрос

Как настроить robots.txt, чтобы бот микрософта не создавал нагрузки?

Добрый день! Помогите правильно создать файл robots.txt. дело в том, что хостеры пишут:

"На текущий момент на Вашем сервере больше всего нагрузку создают процессы php, данная нагрузка может быть вызвана посещением поисковых ботов Вашего сайта, за текущие сутки поисковый бот от Microsoft установил подключение к Вашему сайту более 5000 раз:
2188 207.46.13.106
3351 207.46.13.43

Попробуйте ограничить поисковых ботов в файле robotx.txt для Вашего сайта при помощи директивы crawl-delay, Вы можете ознакомиться со следующей инструкцией для осуществления данной настройки:
https://help.yandex.ru/webmaster/controlling-robot... "

Сейчас файл роботс такой -

User-agent: *
Disallow: /wp*

Так может сделать?

User-agent: *
Disallow: /wp*

User-agent: Microsoft
Crawl-delay: 60
  • Вопрос задан
  • 956 просмотров
Подписаться 2 Оценить Комментировать
Пригласить эксперта
Ответы на вопрос 1
XXX
@XXX
Решение где-то рядом
ayrat33 Вы уверены что верно указали user-agent бота? Это поддержка хостинга Вам посоветовала? И значение Crawl-delay указано слишком большое. Почитайте Crawl delay and the Bing crawler, MSNBot. Попробуйте, например, добавить:
User-agent: msnbot 
Crawl-delay: 10

Но не факт что это поможет, решайте проблему с поддержкой хостинга.
Может быть у бота другой user agent, например msnbot-media или вообще саппорту хостинга bingbot или любой другой бот не понравился. И вообще, вполне возможно что причина превышений лимитов по нагрузке совсем не в обращениях ботов.

P.S.
Robots Database
Пример robots.txt для WordPress
Как составить файл robots.txt для WordPress
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы