robots.txt:
User-agent: *
Disallow: *sort=*
У меня основная часть сайта - большая таблица поделенная на более 100 страниц. В таблице штрих-коды товаров, названия и цены. Над колонками есть ссылки для сортировки, 5 штук, вот их то я и заблокировал, исходя из того что важна индексация контента, а не кол-во ссылок на него.
До того как я это сделал по некоторым запросам (штрихкодам) гугл выдавал результаты зафлуженные мои сайтом (8 из 10 ссылок в результатах вели на мой сайт). Это вроде исправилось, но теперь я подумал, может это наоборот было хорошо? Яндекс показывает что 453 страниц запрещены файлом robots.txt