Задать вопрос
@Gabib

Почему индексируется страницы закрытые тегом robots и в robots.txt?

У меня есть страницы с GET параметрами, все они закрыты в robots.txt, а также тегом в robots noindex/nofollow, но гугл всё равно их индексирует, как исправить?
Убрать запрет на скан в robots.txt?
  • Вопрос задан
  • 166 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
mayton2019
@mayton2019
Bigdata Engineer
Вот тут пишут https://developers.google.com/search/docs/crawling...
что robots.txt - это как-бы рекомендательный а не запрещающий механизм. Тоесть гугл все равно
сам решает индексировать ему или нет если есть внутренние ссылки на скрытое роботом содержимое.
Ответ написан
Пригласить эксперта
Ответы на вопрос 4
opium
@opium
Просто люблю качественно работать
Пропишите каноникал на этих страницах и не майтесь фигней
Ответ написан
Комментировать
vpetrov
@vpetrov
частный SEO-специалист
robots.txt - это про сканирование и возможность скачивать. Это не запрет на индексацию, и Гугл может всё равно индексировать страницу, если получит достаточный объём сигналов делать так. Ссылки, визиты пользователей - что угодно.
Он не видит вашей рекомендации не индексировать, поскольку не может скачать и просканировать проблемные URL.
Убирайте Disallow в robotx.txt, решайте вопрос метатегами.
Ответ написан
Комментировать
@rPman
Если у тебя есть страницы, на которые не предполагается переход из вне, формируй их POST запросами. Ссылки оформлять на javascript (либо как то делать скрытую форму и стилизовать submit кнопку под ссылку но это извращение)

недостаток, если пользователь обновит страницу или перейдет по историю на предыдущую, браузер спросит о повторной отправке POST запроса

ни один поисковик не индексирует POST запросы и при этом это общепринятая практика использовать это для поиска на сайте.
Ответ написан
Комментировать
@lotse8
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы