Задать вопрос

Негативно ли влияют дубли фильтров и торговых предложений на продвижение?

Подскажите. Есть интернет-магазин на битрикс на готовом решении от Аспро.
На сайте есть свой фильтр по товарам в каждом разделе.
На сайте также большинство товаров с торговыми предложениями.
Есть и поиск по товарам.

Все эти вещи создают огромное количество дублей. Т.к. каждый фильтр, каждое торговое предложение и поисковые фразы на сайте имеют отдельную страницу. Так уж устроен битрикс.

например сайт.ру/catalog/раздел/filter/штора-зеленая/color-is-kiwvgjzm-or-cgj1jy0m/apply/

Итого в Яндексе
Загруженные страницы 15042 - это очень много!
Страницы в поиске 558
Исключённые страницы 1315

Как влияет это на поисковую оптимизацию сайта в целом? И выдачу в ПС. Причем, что в поиске само собой релевантные страницы.
И как бороться с большим количеством загруженных страниц?
  • Вопрос задан
  • 568 просмотров
Подписаться 1 Оценить Комментировать
Пригласить эксперта
Ответы на вопрос 1
shambler81
@shambler81 Куратор тега 1С-Битрикс
да влияют
и не только фильтры а даже пейдженация.
Поскольку канибализирует запрос.
По сути у вас получается 50 страниц с тем же тайтлом и дескрипшеном.
И люди ходят по всем из нрих. Тем самым "вес" страницы рассыпается на них.
НЕ говоря уже про фильтры
1. вариант убрать все за bxajax - но решение так себе.
Поскольку гуглу пофигу на аякс и он найдет ссылки всеравно и проиндексирует их.
А та же пейдженация потеряет возможность давать коллеге ссылку на нужную страницу.
Решение пока толко 1
1. запрещяем в robots.txt все гет запросы !
все ибо сайт должен работать 100% на чпу, а индексация поиска и тому подобной хрения вам не нужна.
2. риал каноникал прям в хедере по условию наличия гет запроса ! и естественно это текущяя страница но без гет параметра.
3. уже по желанию, что можно убираем за аякс.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы