Lara_RU123
@Lara_RU123

Как правильно в файле robots.txt оформить Clean-param??

Здравствуйте! Подскажите пожалуйста, мне необходмио установить запрет на обработку ошибочных адресов (типо, www.sait.ru/ct-menu-item-2/t3zvtv8fmR62HAs) на сайте.
Как я поняла, это можно сделать на джумле через Clean-param? (кажется такой Clean-param: sid /index.php, но я не уверена).
Подскажите, как правильно прописать и где правильно разместить? Можно на примере показать.
Я новичок.
  • Вопрос задан
  • 94 просмотра
Пригласить эксперта
Ответы на вопрос 3
dimonchik2013
@dimonchik2013
non progredi est regredi
https://yandex.ru/support/webmaster/robot-workings...

нужно подробнее, что именно ошибочно
Ответ написан
Комментировать
Lara_RU123
@Lara_RU123 Автор вопроса
Доборый вечер.
Очень много ссылок на сайте примеорно вот таких:
www.sait.ru/ct-menu-item-2/5p3DuQqkzPprwCP
www.sait.u/CT-MENU-ITEM-4
www.sait.ru/ct-menu-item-4/NvfWb5AzCVSHtyV/
После последнего слеша все лишнее (абра кодабра) Адрес сайта заканчивается без слеша

Как правильно в таком случае оформить директиву Clean-param ? ...(Джумла)
Ответ написан
Комментировать
ImidgX
@ImidgX
webmaster freelancer (full stack)
Clean-param это для параметров, т.е. то что идёт в адресе после знака вопроса.
Например
https://www.sait.ru/?param=1

Чтобы адрес с параметром не попал в индекс Яндекс использует Clean-param.
Например
Clean-param: param /
Тогда в поиске будет лишь адрес без параметра param, т.к. скорее всего он всё равно дублирует страницу, а это не хорошо для индексации сайта.

А по вашему вопросу блокирования индексации ошибочных адресов надо "копать" в сторону Disallow и шаблона ошибочных адресов, чтобы их заблокировать.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы