"когда вбиваешь запрос "грузовые автомобили в москве", то показывается главная страница сайта, а страницы, которая заточена под грузовые авто в выдаче нету (как минимум до 10 страницы листал, ее там не было)"
Конечно не будет показываться две страницы одного сайта в выдаче.
Попробуйте убрать скобки. По крайней мере в Screaming Frog так работает.
.*/?blalla
.*jpg
.*gif
.*svg
.*png
И со страницы, которую вы подаёте на вход для парсинга должны идти ссылки на эти страницы, т.е. краулеры не сканируют страницы через одну/две и т.д.
Очевидно. что у вас проблема в структуре. Пересоберите семантику, создайте список лидеров по видимости в ТОПе, найдите самого молодого (по whois) и проанализируйте, за счёт чего он так растёт, с него стоит брать пример, в т.ч. и по структуре.
А ссылки не панацея.
2019-й год на дворе))
Вы ещё спросите, сколько нужно ссылок для ТОП-1!)
По сути: у вас полная семантика, всё отлично со структурой, проведён анализ конкурентов, нет проблем с индексацией, отличная on-page оптимизация, выстроена стратегия линкбилдинга, составлен план по размещению на различных типах площадок, сделан анкор-лист, и теперь вы хотите разбавить ссылочную массу покупными ссылками?
Что-то мне подсказывает, что это не так. Советую сперва сделать все вышеперечисленные действия, прежде чем заниматься ссылками.
С продажного сайта ссылки ставить в нофоллоу. Он работает в обоих поисковиках и "говорит" о том, что донор не несёт ответственности за контент на акцепторе и запрещает получать ему "вес", хоть с донора он и будет отдаваться.
Но я бы попробовал для начала на нескольких страницах, прежде, чем раскатывать на весь сайт. Ну и обязательно мониторить позиции и трафик, хоть и вероятность просадки минимальная.
Правильнее было бы начать с семантики, и определять посадочные страницы исходя из спроса. А не создавать страницу, и потом не знать, что с ней делать.
Если обойтись без семантики и исходить из логики, то главную стоит заточить на запросы:
легранд белгород
купить легранд
розетки легранд
На страницу каталога:
каталог розеток легранд
легранд цена
А страницу о компании так и сделайте: описание производителя и вас, как дистрибьютора, почему стоит купить именно у вас.
Собирайте семантику, кластеризуйте и распределяйте запросы по страницам, смотрите как реализовано у конкурентов и делайте лучше. Вот вам рецепт идеального SEO.
Да, является дублем, как и любые страницы с одинаковым содержимым (в т.ч. и гет-параметрами, как в вашем случае).
Проверьте метатег canonical, вероятнее всего, у вас его нет. Рекомендую на каждой странице установить этот метатег, ссылающийся на соответствующую страницу. В таком случае даже со страниц "?width=500&height=500&inline=true#id-of-content" будет стоять каноникл на основную страницу, и страницы с гет-параметрами не будут попадать в индекс.
Вот пример страницы с GET-параметром, с которой стоит тег на основную страницу: https://www.mvideo.ru/obzory?reff=infoblock
Не нужно делать из ИКС карго-культ!)
Анализируйте важные и существенные показатели: трафик, позиции, конверсии и т.д.
Если начинать анализ с этих данных, то вопросов, почему просел ИКС, у вас не будет.
А сейчас сайт индексируется? На нём есть трафик с поиска?
Если нет, то хуже от действий администратора не будет)
Меньше нуля трафика всё равно не будет))
Тем не менее, отвечаю на ваш вопрос: закрыть сайт от индексации можно в файле robots.txt, он находится в начальной папке с файлами сайта. Посмотреть его можно по адресу site.ru/robots.txt. Чтобы поисковики не индексировали сайт, нужно заменить его содержимое на следующие две строчки: