Добрый день!
По-хорошему, чтобы такого не было, нужно сделать несколько вещей:
1. Скорректировать robots.txt. Добавить несколько директив
Disallow: /*?s=
Disallow: /*?act=
Disallow: /*?noredir=
Disallow: /*id=
2. Настроить атрибут rel=canonical на все страницы с динамическими урлами. Атрибут rel=canonical прописываем на URL до «?». Это на случай, если Google не будет учитывать robots.txt.
3. Настроить системный 301 редирект со страниц вида «*/?*» на страницы «*/» без динамики в URL.
После этих действий дубли из индекса пропадут через некоторое время.