Попробуйте поработать над временем отдачи контента поисковым ботам. Возможно Яндекс не дожидается, пока он загрузится. Посмотрите, что у вас отображается в Я.Вебмастере в разделе "посмотреть как робот"
У Антона и Михиала хорошие варианты, я бы только рекомендовал сделать их комбо: Title: Аренда авто с водителем в Сочи от 300 руб. | Цены, условия и автопарк аренды автомобиля с водителем
Таким образом вы охватите больше ключей, и сделаете упор на основной ключ)
Более подробно про составление метатегов рассказывал в видео (ну и текстовая расшифровка, если лень смотреть)
0. У большого сайта, на котором настроена защита — крайне сложно пробить её лягушкой.
1. Попробовать парсить с другого впн, например, через tunnelbear.
2. Заказать парсинг на kwork.
3. Попробовать парсинг через a-parser со сменой проксей.
Пару лет назад писал статью на тему автоматизации мониторинга показателей CWV, одна из частей статьи посвящается как раз массовой проверке показателей скорости загрузки, ссыль.
Остаётся только вопрос, чем они вам мешают. Во-первых, если в индексе висит редирект, то возможно передача веса странице акцептору ещё не закончена, и запретив сканирование, вы исключите такую возможность. Во-вторых, на ранжирование сайта это никак не повлияет, а если это не влияет на ранжирование, то зачем этим вообще заниматься?
Вероятнее всего, Лабрика берёт данные из ТОП-а выдачи. А ТОП может меняться, отсюда и изменение требований вхождений. Договоритесь с клиентом на каком-то фиксированном количестве вхождений.
1. Для SEO лучше сделать не на самописной CMS. Кому потом поддерживать сайт? Или вы предполагаете, что кто-то с вашим кодом будет разбираться?
2. Вы давно последний раз символы тильды или запятых видели в url?
3. Среди представленных вариантов никакой бы не выбрал, а взял стандартное site.hi/size-150-200/color-belyy-goluboy/
Исходите из спроса и кластеризации семантики. Если спрос/частотность есть, то можно создавать страницу.
1. Если у вас созданные страницы не дублируются между собой и имеют какой-то спрос, то вероятнее всего, негатива от этого не будет.
2. Т.е. вы хотите сказать, что у вас миллион страниц, а вы переживаете из-за 10 страниц карты сайта?) Сместите фокус на более приоритетные задачи.
Отвечая на вопрос в заголовке, то можно, например, на странице поставить тег meta robots = noindex.
В таком случае краулер не будет добавлять эту страницу в выдачу, но ссылки с неё учитывает в ранжировании.
Звёздочка означает, любое количество любых символов.
Соответственно, нужно тогда делать следующее, если вы хотите запретить к сканированию всех страницы с GET-параметрами: Disallow: /index.php*
В Метрике действует ограничение на показ всех фраз. Вы сравниваете кабинет Вебмастера со счётчиком аналитики. Более релевантно будет сравнивать Google Search Console с Яндекс.Вебмастером. Там у вас будут совсем другие цифры.