Есть 3 версии сайта с разными доменами.
https://site.app/ (прод)
https://site-stage.ru (тестовый)
https://siteapp.com (тестовый)
Нужно скрыть от поисковых систем только 2 (тестовые), прод оставить. На данный момент есть решение: существует 2 файла робота, файлы в зависимости от окружения выдаются
Для этих 2-х вариантов прописано правило:
User-agent: *
Disallow: /
Достаточно ли будет этого? пишут, что запрет индексирования произойдет не сразу и вообще директивы робота носят рекомендательный характер
Что сделать, чтобы точно страницы были закрыты от индексирования (как в яндексе, так и в гугле)? Как ускорить процесс?