ZaraMc: у меня сейчас нет под рукой программы, но вкратце алгоритм такой:
1) Сканируете свой сайт (вкладка краулер)
2) Парсите результаты выдачи Google (вкладка Google)
3) Смотрите в статистике сканирования (она расположена справа) пункт "Страницы найденные на сайте, но отсутствующие в Google".
ZaraMc: программа парсит сайт и, помимо адреса (URL), собирает о страницах доп. информацию. После этого получает индекс гугла для конкретного сайта и сравнивает два этих списка. Деньги на капчу - в зависимости от объема сайта, скорости сканирования и вашего IP)
Глюкъ Виртуален: не слышал о платном способе. По поводу "не работает" - не могу согласиться, вполне работает. Но по моему опыту проект должен быть довольно посещаемый.
Антон Мелентьев: если сложно настроить редиректы, то закрывать старые URL в роботс совсем не обязательно. Постепенно они выпадут из индекса. А вот по части новых страниц с параметрами - стоит подумать, нужны ли они в индексе.
crescent: по моим наблюдениям заметной разницы нет) Если структура всего сайта в целом адекватная, то ни на индексацию, ни на ранжирование б0льшая вложенность отрицательного влияния не оказывает.
Артем Морозов: Парсите запросы например для Москвы и потом меняйте уже на свой город. А по поводу статейных сайтов - если по коммерческим запросам с гео вылазят статьи, значит либо нет релевантных сайтов в вашем регионе, либо косяк алгоритма. Во втором случае после того как сайт будет полностью готов стоит написать в службу поддержки Яндекса.
p.s. Если по коммерческим запросам в топе есть сайты-каталоги для вашего города (типа перечня фирм по электромонтажным работам, постарайтесь попасть и туда, чтобы компанию могли найти не только переходя на ваш сайт, но и на других ресурсах.
Артем Морозов: Многое зависит от конкуренции в вашем городе и качества сайта, как с точки зрения пользователей, так и со стороны ПС. Если по семантике группы запросов хорошо проработали, то по крайней мере по низкочастотным запросам у вас должен появиться трафик в течение 1-2 месяцев (если, конечно, спрос вообще есть).
Отслеживайте запросы вида "услуга +ваш город" и т.п., чтобы оценивать динамику.
Игорь Павленко: влияет. Вы сообщаете роботу, что не хотите, чтобы он переходил по конкретной ссылке. Как он дальше себя поведет - сложно сказать. Бывает, что роботы игнорируют и nofollow, и даже инструкции в robots.
Захар Сторожук: в любом случае, универсального рецепта нет) Но если решитесь на прогон - сильно не зверствуйте, лучше меньше ссылок, но более высокого качества.