@Merle7

Как быстро закрыть от индексирования некоторые версии сайта с разными доменами?

Есть 3 версии сайта с разными доменами.
https://site.app/ (прод)
https://site-stage.ru (тестовый)
https://siteapp.com (тестовый)

Нужно скрыть от поисковых систем только 2 (тестовые), прод оставить. На данный момент есть решение: существует 2 файла робота, файлы в зависимости от окружения выдаются
Для этих 2-х вариантов прописано правило:
User-agent: *
Disallow: /


Достаточно ли будет этого? пишут, что запрет индексирования произойдет не сразу и вообще директивы робота носят рекомендательный характер

Что сделать, чтобы точно страницы были закрыты от индексирования (как в яндексе, так и в гугле)? Как ускорить процесс?
  • Вопрос задан
  • 128 просмотров
Пригласить эксперта
Ответы на вопрос 2
suffix_ixbt
@suffix_ixbt
https://www.babai.ru/
Да, поисковые системы рассматривают запреты в robots.txt как рекомендательные и всё-равно могут проиндексировать.

Правильный вариант закрыть тестовые сайты для всех в nginx / apache, а тем кому нужно оставить доступ по IP.
Ответ написан
@Merle7 Автор вопроса
В итоге, пока решила проблему так: в зависимости от окружения поставила условие генерировать метатег
<meta name="robots" content="noindex, nofollow" />

При этом, в файле robots.txt не запрещается сканировать эти сайты, чтобы они узнали про метатег.
Когда(или если) тестовые сайты пропадут из результатов поиска ПС, в файле робота запрещу сканировать их. Если не поможет, придется воспользоваться советами выше.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы