Как закрыть поддомены от индексации поисковыми системами?
есть такая проблема, всплывает каждый раз - разворачиваем сайты и не закрываем их вроботсе, а иногда еще хуже - закрытый в роботсе сайт переносим на основной домен клиента ) тогда вообще капец - сайт из индекса выпадает. Поэтому возможно есть решение исключающее "забыл" - т.к. у нас сайты развернутые на нашем хосте имеют адрес *.sorokarm.ru то возможно применив какое то правило для домена sorokarm.ru мы сможем закрыть все поддомены. возможно вставив А-записи к этому домену. Есть у кого какие мысли?
При созадинии, сдаче, переносе проекта всегда есть стандартный туду, если его нет то это пущий идиотизм, в список просто добавляешь пункт проверки роботса и прочего и живешь спокойно.
Суть метода в подмене robots.txt для поддоменов на уровне сервера (отдаем заранее подготовленный специально для поддоменов robots.txt, а не из папки поддомена).
Буду благодарен за подобное для Nginx (решение Виктора Савченко не подходит - нужен robots.txt).