Приведенный вами пример является дублем - так как URL-ы страниц различаются, но контент размещенный на них совпадает. Самое простое решения закрыть дубли, генерируемые при помощи get параметров через robots.txt
У вас на данный момент отсутствует robots.txt на сайте
Чтобы закрыть от индексации дубль, который Вы привели в качестве примера - в корне сайта необходимо размесить файл robots.txt следующего содержания:
User-agent: Yandex
Disallow: /?fakeparam=
Host: www.somesite.ru/
Анализатор robots.txt вам в помощь -
https://webmaster.yandex.ru/robots.xml#results :)