В зависимости от вашей тематики нужно смотреть, как это сделано у конкурентов в различных локалях. У каждого способа есть свои минусы и плюсы, их легко можно найти в гугле. Только вы не назвали ещё третий способ — это подпапки site.com/en/ site.com/ru/.
Так или иначе вам необходимо будет настроить теги Hreflang. Информация об их использовании также легко гуглится.
Я бы обратил внимание на сам переезд, чем на эмоджи. Чем клеили адреса, 301-м? Или канониклом? Какого размера семантическое ядро отслеживается на странице?
С вероятностью 99% стоит забить на это. Позиции по конкретному запросу могут скакать день ото дня и час от часа. Важно следить за общей динамикой трафика и видимостью сайта.
Изменения могут быть связаны с персонализацией выдачи. Можете посмотреть выдачу в режиме инкогнито и сравнить результаты там.
Не нужно заниматься перфекционизмом и убирать абсолютно все ошибки. Важно, чтобы сайт не был в красной зоне и грузился не за 10 секунд. Вряд ли у вас хайлоад проект, где несколько тысяч посетителей в день, для остальных заморочки над каждой ошибкой чрезмерны.
Закажите букмарклет для браузера у программиста, который будет отключать свойство hover на страницах Я.Картинок. Это будет проще всего. Задача довольно простая, я думаю в 1000р вам обойдётся и сэкономит нервы)
Для поисковиков это будут отдельные страницы (так же, как например, урл, написанных в другом регистре). Бана за это не будет, тут я не соглашусь с Михаилом.
Но если делать это с прицелом на SEO, то лучше всё-таки делать статичными url, чтобы потом не плодить редиректов.
При этом важно учитывать, насколько будет отличаться контент на странице, чтобы поисковики их не склеили. При динамических урлах шанс на это больше.
Попробуйте поработать над временем отдачи контента поисковым ботам. Возможно Яндекс не дожидается, пока он загрузится. Посмотрите, что у вас отображается в Я.Вебмастере в разделе "посмотреть как робот"
У Антона и Михиала хорошие варианты, я бы только рекомендовал сделать их комбо: Title: Аренда авто с водителем в Сочи от 300 руб. | Цены, условия и автопарк аренды автомобиля с водителем
Таким образом вы охватите больше ключей, и сделаете упор на основной ключ)
Более подробно про составление метатегов рассказывал в видео (ну и текстовая расшифровка, если лень смотреть)
0. У большого сайта, на котором настроена защита — крайне сложно пробить её лягушкой.
1. Попробовать парсить с другого впн, например, через tunnelbear.
2. Заказать парсинг на kwork.
3. Попробовать парсинг через a-parser со сменой проксей.
Пару лет назад писал статью на тему автоматизации мониторинга показателей CWV, одна из частей статьи посвящается как раз массовой проверке показателей скорости загрузки, ссыль.
Остаётся только вопрос, чем они вам мешают. Во-первых, если в индексе висит редирект, то возможно передача веса странице акцептору ещё не закончена, и запретив сканирование, вы исключите такую возможность. Во-вторых, на ранжирование сайта это никак не повлияет, а если это не влияет на ранжирование, то зачем этим вообще заниматься?
Вероятнее всего, Лабрика берёт данные из ТОП-а выдачи. А ТОП может меняться, отсюда и изменение требований вхождений. Договоритесь с клиентом на каком-то фиксированном количестве вхождений.
1. Для SEO лучше сделать не на самописной CMS. Кому потом поддерживать сайт? Или вы предполагаете, что кто-то с вашим кодом будет разбираться?
2. Вы давно последний раз символы тильды или запятых видели в url?
3. Среди представленных вариантов никакой бы не выбрал, а взял стандартное site.hi/size-150-200/color-belyy-goluboy/
Исходите из спроса и кластеризации семантики. Если спрос/частотность есть, то можно создавать страницу.
1. Если у вас созданные страницы не дублируются между собой и имеют какой-то спрос, то вероятнее всего, негатива от этого не будет.
2. Т.е. вы хотите сказать, что у вас миллион страниц, а вы переживаете из-за 10 страниц карты сайта?) Сместите фокус на более приоритетные задачи.
Отвечая на вопрос в заголовке, то можно, например, на странице поставить тег meta robots = noindex.
В таком случае краулер не будет добавлять эту страницу в выдачу, но ссылки с неё учитывает в ранжировании.
Звёздочка означает, любое количество любых символов.
Соответственно, нужно тогда делать следующее, если вы хотите запретить к сканированию всех страницы с GET-параметрами: Disallow: /index.php*