@bit24yes
CEO

Как закрыть в robots # — диез в URL?

На сайте полно таких страниц:
****.**/p/sharp-00042277
****.**/p/sharp-00042277#!path=odnotonnye-tkani
****.**/p/sharp-00042277?_escaped_fragment_=path=odnotonnye-tkani

Я хочу закрыть дубли от индексации оставив лишь оригинал.

Правило:
Disallow: /p/*?

Закрывает от индексации последний URL, но закрыть URL в котором "#!path=" у меня никак не выходит.

Я пробовал
Disallow: /p/*path

Но в этом случае URL остаётся открытым и такая директива работает только если из URL убрать "#".

Собственно каким правилом можно закрыть такую конструкцию:
****.**/p/sharp-00042277#!path=odnotonnye-tkani
  • Вопрос задан
  • 79 просмотров
Решения вопроса 1
SagePtr
@SagePtr
Еда - это святое
Никак, всё что после символа # на сервер не передаётся
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы