Если URL сформированный по гет запросу дублирует исходный URL он не должен индексироваться. Потому что появление дублей в выдаче поисковых систем чревато санкциями. Это важно, если вы ожидаете, что сайт должен получать органический трафик (переходы с выдачи поисковых систем).
Вы писали про перенаправление со страниц с GET параметрами. Имеете ввиду 301 редирект? Но страницы с гет параметрами откуда-то генерятся? Может быть это результат сортировки и т.п.? Тогда вместо результатов сортировки пользователь получит туже самую страницу, без работающего функционала сортировки. Надеюсь, что понятно выразился:) В общем, перенаправление не выход, на мой взгляд.
Чтобы URL не зашел в индекс есть несколько путей запрета индексации:
- Задать до закрывающего /head в мета-теге robots: meta name=“robots” content=“noindex, follow”
- Прописываем запрещающую директиву в Robots.txt
- Прописываем Rel canonical в коде страницы
Самый надежный способ указан в п.1
Потому что директивы в Robots.txt Google воспринимает, как - рекомендуемые, т.е не для обязательного выполнения/соблюдения. А значит URL будут присутствовать в выдаче, но только в виде заголовка. А присутствие в выдаче = ранжирование. Поэтому способ отпадает, если нужен запрет на показ в Google.
А rel canonical часто не учитывается Яндексом, особенно, если контент на страницах различается. Вот вам пример со страницами пагинации: