@Zimaell

Может ли быть проблема в robots.txt при сканировании поисковиком сайта?

Две недели назад добавил сайт в гугл, полазив по поиску наткнулся на статейку где описывается что где нужно проверять, вот к примеру "проверка оптимизации для мобильных устройств", проверил и мне дало такой вот результат
5e4ed408c067a876115380.jpeg
сам robots.txt выглядит так
User-agent: *
Disallow:
Host: https://.............
Sitemap: https://............./sitemap.xml

проблема в нем или просто еще поисковик не "разогнался"?
вроде как для всех ботов разрешено, запрещения никакого нет...
покрытие выглядит так
5e4ed5333f1ac856369902.jpeg
эффективность так
5e4ed57ea06de998226848.jpeg
подскажите, я что-то не так делаю, в чём то могут быть проблемы или все нормально и нужно просто ждать?
  • Вопрос задан
  • 34 просмотра
Пригласить эксперта
Ответы на вопрос 1
ConstKen
@ConstKen
User-agent: *
Disallow:
Host: https://.............
Sitemap: https://............./sitemap.xml

Ну по идеи директива Disallow закрывает страницу от краулера.
У вас ничего не закрыто.
Так что просто подождите.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы