Продвигаю несколько сайтов на CMS Opencart, и возник вопрос по закрытию от индексации технических страниц и каталогов:
Ссылка на robots.txt на одном из этих сайтов -
miumia.net.ua/robots.txt
и ссылка на сайтмапу -
miumia.net.ua/sitemap.xml
Вот пример страницы при переходе из категории на сайте -
miumia.net.ua/katalog-tkanej/byaz-dlya-poshiva?pro...
Вот пример страницы дубликата (из модуля просмотренные товары скорее всего) -
miumia.net.ua/index.php?route=product/product&prod...
Как подобные страницы эффективнее и правильнее исключить из индексации:
1) Прописать ЧПУ на категории и товары, а остальные технические страницы в роботсе закрыть?
2) Прописать на каждой ненужной для поисковика странице
<meta name=“robots” content=“noindex,nofollow”>
+ исключить их в роботсе
(и есть ли смысл закрывать их и в роботсе и на каждой отдельной странице)?
3) Или есть плагины, которые прописывают ЧПУ для Opencart (если товаров мало, то можно вручную прописать, но когда их сотни и тысячи - тяжко :С )?
И хотелось бы узнать - если в начале оптимизации робот Google уже проиндексировал все эти технические каталоги и дубликаты страниц - и я начну оптимизировать способами указанными выше эти сайты и отправлю изменения в Google Webmaster, - сколько потребуется времени (примерно), чтобы они выпали из индекса и выпадут ли они вообще такими способами?
Заранее спасибо, опыт в оптимизации и продвижении небольшой и адекватной инфы по этому поводу узнать пока не от кого :)