Как закрыть поддомены от индексации поисковыми системами?

есть такая проблема, всплывает каждый раз - разворачиваем сайты и не закрываем их вроботсе, а иногда еще хуже - закрытый в роботсе сайт переносим на основной домен клиента ) тогда вообще капец - сайт из индекса выпадает. Поэтому возможно есть решение исключающее "забыл" - т.к. у нас сайты развернутые на нашем хосте имеют адрес *.sorokarm.ru то возможно применив какое то правило для домена sorokarm.ru мы сможем закрыть все поддомены. возможно вставив А-записи к этому домену. Есть у кого какие мысли?
  • Вопрос задан
  • 7582 просмотра
Пригласить эксперта
Ответы на вопрос 4
AloneCoder
@AloneCoder
[object Object]
Есть решение исключающее "забыл" - проверять и не забывать
А для доменов sorokarm.ru можно прописать редирект в .htaccess для файлов robots.txt
Ответ написан
opium
@opium
Просто люблю качественно работать
При созадинии, сдаче, переносе проекта всегда есть стандартный туду, если его нет то это пущий идиотизм, в список просто добавляешь пункт проверки роботса и прочего и живешь спокойно.
Ответ написан
UAPEER
@UAPEER
UAPEER Hosting Solutions Англия
Берете NGINX, пишите:

server {
server_name ПОДДОМЕН.ТУТ;
add_header X-Robots-Tag noindex;
}

Готово. 100% работает для гугла.
Ответ написан
@kanuhamru
Вот тут есть решение для Apache: searchengines.guru/showpost.php?p=8776153&postcount=11

Суть метода в подмене robots.txt для поддоменов на уровне сервера (отдаем заранее подготовленный специально для поддоменов robots.txt, а не из папки поддомена).

Буду благодарен за подобное для Nginx (решение Виктора Савченко не подходит - нужен robots.txt).
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы