Добрый день! Помогите правильно создать файл robots.txt. дело в том, что хостеры пишут:
"На текущий момент на Вашем сервере больше всего нагрузку создают процессы php, данная нагрузка может быть вызвана посещением поисковых ботов Вашего сайта, за текущие сутки поисковый бот от Microsoft установил подключение к Вашему сайту более 5000 раз:
2188 207.46.13.106
3351 207.46.13.43
Попробуйте ограничить поисковых ботов в файле robotx.txt для Вашего сайта при помощи директивы crawl-delay, Вы можете ознакомиться со следующей инструкцией для осуществления данной настройки:
https://help.yandex.ru/webmaster/controlling-robot... "
Сейчас файл роботс такой -
User-agent: *
Disallow: /wp*
Так может сделать?
User-agent: *
Disallow: /wp*
User-agent: Microsoft
Crawl-delay: 60