sibweb38
@sibweb38

Как запретить в robots.txt параметры с #?

Система сайта генерирует такие ссылки - пример одной ссылки:
/#tgWebAppData=user%3D{"id":416372076,"first_name":"Roman","last_name":"","username":"The_Rommich","language_code":"ru","allows_write_to_pm":true}%26chat_instance%3D7934937800713729117%26chat_type%3Dchannel%26auth_date%3D1718378597%26hash%3D0b77275b63bca33fac8d48cceb46a9ea3ffabc4f79b2f5dd78d1de8868cb821a&tgWebAppVersion=7.4&tgWebAppPlatform=ios&tgWebAppThemeParams={"text_color":"%23000000","accent_text_color":"%23007aff","secondary_bg_color":"%23efeff4","section_header_text_color":"%236d6d72","bg_color":"%23ffffff","subtitle_text_color":"%238e8e93","hint_color":"%238e8e93","button_color":"%23007aff","link_color":"%23007aff","destructive_text_color":"%23ff3b30","section_bg_color":"%23ffffff","button_text_color":"%23ffffff","header_bg_color":"%23f8f8f8","section_separator_color":"%23c8c7cc"}

Как их запретить в robots.txt ?
  • Вопрос задан
  • 50 просмотров
Решения вопроса 2
Lynn
@Lynn
nginx, js, css
Никак.

Фрагменты (#fragment) не отправляются на сервер и роботы, соответственно, никогда по таким урлам не ходят, так что смысла в таком запрете нет.
Ответ написан
Комментировать
vpetrov
@vpetrov
частный SEO-специалист, textarget.ru
Незачем. # склеиваются (консолидируются) с каноническим URL.
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы