Я сичитаю что для каждой страницы, которая должна попасть в индекс, нужно создавать статическую. Страницы с GET запросом в урле лучше вообще избегать, т.к. не дай Бог кто-то закинет в индекс подобную страницу, будет 404. Либо прописывать параметр filter, а в роботсе исключать из индекса все, что связано с filter. Такое тоже можно, правда не знаю как там с точки зрения безопасности .... если мы говорим всем по каким параметрам фильтруют, можем подсказать хакеру куда нужно нас ломать.
Еще варик для страниц фильтров, которые не нужны в индексе настраиваем axaj фильтрацию.