@Zhw

Как безопасно для SEO запустить бету новой версии сайта?

У нас есть domain.com и мы хотим протестировать новый шаблона сайта на домене beta.domain.com. Домен beta.domain.com нужен только временно, потом он будет удален и новый шаблон (после тестирования) поставлен на основной домен domain.com.

Какой будет правильный алгоритм действий, чтобы не повлиять негативно на SEO основного домена domain.com?

Странно, но в интернете особо не нашлось полезных мануалов, кроме вот этой темы: https://webmasters.stackexchange.com/questions/820...

Где даны следующие советы:

1. Положить robots.txt с флагом noindex в beta.domain.com
2. Прописать теги сanonical с beta.domain.com на domain.com

С первым пунктом вроде все логично, но зачем второй нужен? Если у нас и так noindex там, то реально ли нужен canonical?

Есть ли еще какие-то рекомендации или ссылки по тому как правильнее весь этот процесс устроить?

Кстати, в Google Webmasters Tools добавлять beta.domain.com нужно?
  • Вопрос задан
  • 99 просмотров
Пригласить эксперта
Ответы на вопрос 4
phpneguru
@phpneguru
Все зависит от того как вы собираетесь использовать бета версию вашего сайта.
Если вы уже запустили сайт и хотите чтобы он был основным, то тогда вам необходимо - проставить canonical'ы, в Вебмастерах прописать переезд. Сделать редирект на beta.domain.com.
Если же вы хотите чтобы основным сайтом оставался domain.com - тогда вам необходимо на домене beta.domain.com - поставить rel="noindex nofollow" и в роботсе закрыть сайт от индексации
Ответ написан
fantasticlucky
@fantasticlucky
Интернет маркетолог
Самый простой и эффективный способ закрытия поддомена от роботов:
1) Запоролить поддомен. Поддомен открывается по логину и паролю.
2) Не обязательно. Но, на всякий, из опыта работы с программистами, создать robots.txt для поддомена и прописать там:
User-agent: *
Disallow: /
# Запрещаем доступ к сайту всем роботам
Ответ написан
opium
@opium
Просто люблю качественно работать
это все фигня и работает не гарантированно
просто закрываешь паролем сайт и вуаля
Ответ написан
Grinvind
@Grinvind
Помогаю увеличивать трафик с поисковых систем
Если правильно понимаю, то речь идёт о том, чтобы сайт был доступен для пользователей, чтобы полить на него трафик и протестировать конверсию. Тогда, как и говорили выше, закрывайте в роботсе через
User-agent: *
Disallow: /

Таким образом вы запрещаете сканирование страниц сайта поисковым системам. Этого достаточно. noindex запрещает индексацию. Важно не путать сканирование и индексацию. Если стоит запрет сканирования, то роботы даже не будут видеть noindex, т.к. не будут открывать код этой страницы.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы