Здравствуйте. Столкнулся с такой проблемой. Создал в CMS 1С-Битрикс, с помощью встроенных сервисов, файлов robot.txt и sitemap.xml (карта сайта), добавил в Google Webmasters файл robot.txt, ошибок или предупреждений обнаружено не Google не было. Кстати, вот так выглядит мой robot.txt:
User-Agent: *
Disallow: */index.php
Disallow: /bitrix/
Disallow: /*show_include_exec_time=
Disallow: /*show_page_exec_time=
Disallow: /*show_sql_stat=
Disallow: /*bitrix_include_areas=
Disallow: /*clear_cache=
Disallow: /*clear_cache_session=
Disallow: /*ADD_TO_COMPARE_LIST
Disallow: /*ORDER_BY
Disallow: /*PAGEN
Disallow: /*?print=
Disallow: /*&print=
Disallow: /*print_course=
Disallow: /*?action=
Disallow: /*&action=
Disallow: /*register=
Disallow: /*forgot_password=
Disallow: /*change_password=
Disallow: /*login=
Disallow: /*logout=
Disallow: /*auth=
Disallow: /*backurl=
Disallow: /*back_url=
Disallow: /*BACKURL=
Disallow: /*BACK_URL=
Disallow: /*back_url_admin=
Disallow: /*?utm_source=
Host: мойсайт.by
Sitemap:
http://мойсайт.by/sitemap.xml
Самое интересное началось после того, как я добавил sitemap.xml в Google Webmasters. Оказывается robot.txt блокирует абсолютно все ссылки которые содержит sitemap.xml, при этом как бы над robot.txt я не извращался, с помощью каких мануалов я бы его заново не создавал, то же самое кстати касается и sitemap.xml, его я тоже пытался создать не только с помощью встроенного сервиса,
все равно robot.txt блокирует все ссылки в sitemap.xml. Может кто нибудь сталкивался с этим и знает, что нужно сделать?