Задать вопрос
Informatikum
@Informatikum
Преподаю робототехнику и информатику в школе.

Почему когда несколько сайтов на одном сервере не работает robots.txt?

Здравствуйте.

На сервере поставил Debian. Каждый сайт хранится в:
/var/www/site1.ru
/var/www/site2.ru
и т.д.

Добавил в каждую папку сайта свой robots.txt:
/var/www/site1.ru/robots.txt -> site1.ru/robots.txt
/var/www/site2.ru/robots.txt -> site2.ru/robots.txt

Выдает ошибку:
404 Not Found
nginx/1.1.14

Перелазил форумы, хабр, тостер. Находил много советов, ни один не помог. Посоветуйте, как правильно должно быть все разрулено, чтобы заработало.

То же самое с sitemap.xml...
  • Вопрос задан
  • 50089 просмотров
Подписаться 3 Оценить 1 комментарий
Ответ пользователя Антон Михайлов К ответам на вопрос (6)
Informatikum
@Informatikum Автор вопроса
Преподаю робототехнику и информатику в школе.
Пробовал еще как варианты:
server {
  listen   8000 backlog=1024 deferred ;
  root /var/www/site2.ru;
----


----
  location / {
    try_files $uri @backend;
    if ($http_host ~* "^site2.ru"){
    rewrite ^/robots.txt?$ /robots.txt break;
    }
----


Не помогло...
Ответ написан
Комментировать