Вопрос по robots.txt и Sitemap.xml Почему не читаются?

Ребята, всем привет. Ближе к сути: Создаю sitemap определённого ресурса, пытаюсь скормить гуглу он отвечает ошибкой ( пустой файл или файл недоступен) Проверяю простым дедовским способом. Открываю site.ru/sitemap.xml ( движок отвечает что такого файла нет и просит вернутся на главную страницу. Странно. Мучения и снова мучения . Далее натыкаюсь на статью о том, что это всё может быть из-за чпу в движке. Допустим. Проблема в том, что сам двиг коммерческий, куплен, лицензия все дела, но поковырятся в нём особо нет возможности, поскольку там всё зашифровано автором. Да и ладно, не мой уровень. Прочитала инфу о том, что можно попробовать внести изменения в robots.txt и указать где лежит sitemap , но эта попытка тоже не удалась. Захожу через ftp на сервер, правлю файл, сохраняю. Опять же решаю проверить дедовским методом site.ru/robots.txt а в файле нет моих изменений! Возвращаюсь на сервер - всё есть. Через браузер-нет. Как победить всю эту беду и сделать sitemap доступным? ( Сильно не пинайте знаний минимум )
  • Вопрос задан
  • 100 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы