Задать вопрос
  • Как убрать дубликат главной страницы на тильда?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Во-первых, надо бы уточнить, какого рода дубликаты. Нужно выбрать один, канонический URL, по которому поисковые системы будут показывать главную, и настроить 301-е редиректы на него. Условно - с версий http, www и https://www надо настроить редиректы на версию https:// без www (если, конечно, выбрана эта версия).
    Второй вариант технических дублей - это URL с параметрами (обе поисковые системы сейчас активно лепят свои параметры с выдачи, Яндекс добавляет параметры к URL, которые нашёл через Метрику и т.п.). Это решается с помощью канонических адресов (Canonical) и Clean-param – в этом случае все адреса с параметрами будут склеены (консолидированы) с каноническим, и страница не потеряет ничего хорошего (поведенческие, ссылочные и т.п.).
    Как конкретно сделать всё это в рамках Tilda - другой вопрос, там возможности достаточно ограничены. Но для такой базы инструментарий должен быть.
    Ответ написан
    Комментировать
  • Если страница проиндексирована, значит внешние ссылки, размещенные на ней, тоже учтены поисковыми системами?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Формально - да. Если страница попала в индекс. то поисковая система должна обнаружить и ссылку.
    Но есть нюансы: тот же Гугл - это не единый индекс. Он в принципе может выдрать со страницы какие-то отдельные шинглы и даже хорошо их ранжировать, но прочее в базу не вносить. Или наоборот: после деиндексации за что-то основного контента ссылка с него может оставаться в базе данных поисковика и он по ней будет периодически ходить.
    Кроме того, то, что ссылка найдена и проиндексирована вовсе не значит, что она будет учтена в ранжировании.
    Но это уже дебри, малополезные для работы.
    Ответ написан
    Комментировать
  • Какой инструмент использовать для проверки всего сайта на фильтр?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Нет такого инструмента и быть не может.
    Начнём с того, что фильтр – это не "за что-то". Это просто про несоответствие каким-то критериям, ненабранный балл по каким-то параметрам.

    В вашем конкретном случае (сначала выросло, а потом упало) речь скорее всего идёт о простой ситуации: Яндекс вам авансом дал высокие позиции, потом оценил пользовательские сигналы, они ему не понравились - и вы позиции потеряли. Или просто посчитал более весомые метрики - и оказалось, что там всё плохо.

    Выясняйте последовательно: по каким запросам на какие страницы шёл трафик, который пропал. А дальше - методом исключения: технические моменты (доступность для роботов в первую очередь), текстовые характеристики, поисковый спрос (был хайп - и закончился), конкурентная среда, качество трафика (который был - но ушёл).

    О серьёзных нарушениях поисковые системы уведомляют через консоли вебмастеров. Всё остальное нуждается в точечных проверках.
    Ответ написан
    4 комментария
  • Можно ли дублировать статьи блога?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Дубли в поиске не нужны, так что при синдикации контента поисковая система признает одну версию канонической и будет показывать её. И вероятно, это будет наиболее раскормленная/трастовая/посещаемая площадка.
    Нет проблем с репостами, но имейте в виду: если вы хотите, чтобы ваш контент на сайте показывался в поиске – опубликуйте сначала там, дождитесь индексирования, и только потом транслируйте на другие площадки.
    Кроме того, для каждой площадки стоит адаптировать контент под устоявшийся там формат. То, что может зайти на Дзен, будет с гиканьем затоптано на "Хабре" – и наоборот.
    Исключение одно: если вы – новостной портал и транслируете свой контент в Яндекс-Новости или Discovery.
    Адаптировать при синдикации можно и средствами генеративных моделей.
    Ответ написан
    Комментировать
  • Как запретить в robots.txt параметры с #?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Незачем. # склеиваются (консолидируются) с каноническим URL.
    Ответ написан
    Комментировать
  • Как редирект с www. повлияет на позиции сайта в выдаче?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Сайт на www и без www - два разных домена. Да, www - это именно домен. Так что всё тут - как при любой переклейке-переезде: не сразу, не всегда гладко, возможны проблемы.
    Решается редиректами (301) и потом немножко подождать. В нормальном случае проблем быть не должно.
    Ответ написан
    Комментировать
  • Key Collector работает только на ОС Windows, какой аналог вы порекомендуете для работы на Мас?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Кейколлектор можно использовать через виртуалку или Docker.
    Ну или разбираться, какие функции его нужны и искать инструментарий соответствующий - для парсинга, выгрузки данных по API, фильтрации, кластеризации и т.п.
    Но вообще говоря, полноценной замены нету: для работы с Google толку от него мало, сделан он под Яндекс, отсюда и проблемы.
    Ответ написан
    Комментировать
  • Каким должен быть H1 с т.з. Яндекса?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Тайтл - это своего рода корешок книги, где коротко и ёмко пишут то, что должен увидеть человек на поисковой выдаче, и то, что робот должен понять о содержании страницы. Что спрашивают (или должны спрашивать) - то и пишите. Сильно спамить нынешние алгоритмы там не дадут, они умеют формировать тайтлы самостоятельно, на базе проиндексированного по странице контента.
    H1 - это уже версия для людей, которые уже пришли на страницу, и по этому заголовку должны понять, туда ли они попали. Туда не надо добавлять "купить", "в Сызрани", "недорого" и т.п. Если ваш артикул важен для пользователя и это часть поисковых запросов - добавляйте куда надо. Многочисленные характеристики в заголовки выводить чаще всего незачем, выводите только критически важные данные, отличающие этот товар от всех остальных.
    Ответ написан
    1 комментарий
  • Почему Яндекс считает страницы сайта малоценными и мало востребованными?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не на то смотрите.
    МПК - это про трафик. Нет трафика - Яндекс не может оценить качество и присваивает МПК. Выход прост и понятен: решите проблему с этим самым трафиком.
    • Создайте контент, который этот трафик привлечет (выше Дмитрий эту тему уже затронул).
    • Трафик годится любой, не только из поиска. Можно использовать паразитный и из соцсетей
    • Найдите нишу, где конкуренция с каким-нибудь "Кинопоиском" невелика
    • Учтите, что есть запросы, заточенные только под видео, а поисковые системы могут ведь и не понять, что это самое видео у вас тоже есть
    Ответ написан
    Комментировать
  • Как сделать robots.txt и sitemap.xml на мультиязычном сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист
    robots.txt всегда лежит только и исключительно в корне сайта, никак иначе.
    Где лежит сайтмап - в общем-то, без разницы, тут строгих правил нет. Хотя разумнее держать его тоже в корне.
    Ответ написан
    Комментировать
  • Поврежденный файл с расширением .NEF, как открыть?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Фотографу надо поднимать данные с флешки и компа. Физически всё файло наверняка ещё живо, просто система отнимает у файла первую букву и файл считается удаленным.
    Если он не успел их физически перезаписать – можно поднять эти файлы, если не все, то как минимум часть. Нужен спецсофт. Если не может сам - пусть идёт в сервис, дело нехитрое.
    У меня как-то на работе в фотостудии системщик дамп снёс с 60 ГБ клиентских съёмок – 12 часов заняло восстановление, но подняли всё.
    Ответ написан
    Комментировать
  • Как узнать когда страница сайта попала в индекс гугл?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Никак.
    Гугл нигде и никак не палит информацию, когда страницу нашёл, когда просканировал, когда и что внёс в индекс - и в какой. Индексов много, и они фактически независимы друг от друга.
    Доступный максимум - поднять серверные логи, найти посещение гуглобота, убедиться, что это действительно гуглобот, а не парсер конкурентов, представляющийся гуглоботом.
    Дальше - только интуиция.
    Ответ написан
  • Как сделать скриншот веб-страницы с большим разрешением чем есть?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Может, ошибаюсь, но по идее - никак, тут физика препятствует.
    Скорее, готовый скриншот можно через любой апскейлер пропустить, лучше всего - нейросеть. Весь классический софт, способный увеличивать размеры, работает откровенно не очень, тем более, что речь об увеличении в 2 раза. Полноценно "додумать" несуществующие пикселы сможет только нейросеть.
    Ответ написан
  • Консультация по авторскому праву. Как правильно использовать чужие фото на своем сайте?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Начинать надо с контентщиков, чтобы понимали: за тыринг картинок без включения головы и "фото взято из открытого источника - Яндекс-картинок" прилетать будет именно им, им и платить штрафы - уже владельцу сайта. Это надо прописать в договоре и в оформленной политике работы с контентом.
    Ну а далее просто жёстко обозначить круг источников, где картинки можно брать. А это:
    • Wikimedia. Там лицензия открытая.
    • Фотостоки с бесплатными работами. Надо учитывать, что там тоже есть требования к использованию, например, указание автора с активной ссылкой.
    • Генеративные сети. Чаще всего берут достаточно бессмысленные картинки в качестве заполнителя места. Такое достаточно просто генерируется. Не обязательно использовать платные генеративки, есть сервисы типа Leonardo, где вам дают 100 (примерно) токенов в день бесплатно.
    • Для более специфических задач (схемы, диаграммы) можно использовать сканы книг с некоторым объёмом редактирования. Чем старше книга - тем меньше вероятность, что вами заинтересуются люди в серых костюмах.
    • Нанять человека, способного быстро и хорошо делать иллюстрации самостоятельно. Это не так сложно и дорого, как может показаться.

    Ну и учитывайте, что не прилетит абсолютно точно только за то, что вы создали сами. Ни в одном другом случае нет никаких гарантий - все эти бесплатные стоки и даже сгенерированные картинки - условность, правила лицензирования могут внезапно измениться.
    Ответ написан
    Комментировать
  • Почему не открываются видео-файлы в Photoshop 2024?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Предположил бы, что дело в кодеке или формате и попробовал перекодировать видео на вход.
    Но тут ФШ жалуется на винду, возможно, это более глобальная системная ошибка. Если ОС поддерживает не все функции - что тут сказать. Ждать костыли или системные заплатки.
    Ответ написан
    Комментировать
  • Раздел /shop/ или поддомен для интернет-магазина?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Субдомен - отдельный сайт, которому придётся набирать хостовые самостоятельно. А это сейчас долго, дорого и чисто технически непросто.
    Папка была бы более логичным решением, если речь не о сайте уровня "леруа-мерлен" или "всеинструменты".
    Один нюанс: я так понимаю, вы всё же собираетесь продавать таким образом услуги, а не сопутствующие товары. И тут, вероятно, вы столкнётесь с реальными проблемами соответствия своих страниц тому, что Яндекс видит в топах. А это чревато нерелевантностью со всем отсюда вытекающим.
    Ответ написан
    Комментировать
  • Какими сервисами полезен KeyCollector? Он теперь перестал корректно собирать ядро?

    vpetrov
    @vpetrov
    частный SEO-специалист
    За свои деньги KC и сейчас живее всех живых для работы с семантикой под Яндекс. Да, из Вордстат он теперь тянет данные с бубном: либо через XMLriver, либо с фокусами. Но
    а) Не вижу смысла сейчас тянуть из Вордстат весь мусор с "хвостами"
    б) Можно вытянуть всё это из Wordkeeper или Букварикс или Кейссо.
    Всё остальное работает как работало. Я обычно там просто вытягиваю частотки из Директ, плюс оценка посадочных страниц на релевантность и ранжирование. Можно там и кластеризовать, но я предпочитаю KeyAssort - мне это удобнее и результаты нравятся больше.
    Ответ написан
    Комментировать
  • Проблема с файлом robots.txt в Google Search Console. Откуда он его берет?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Настройте редиректы на главное зеркало, сейчас все зеркала отдают 200.
    Во-вторых, у вас robots.txt выглядит вот так:
    User-agent: * Disallow: *.epub Disallow: *.djvu Disallow: /404.php Disallow: *?* Disallow: *menu*.shtml Disallow: /bot.shtml Disallow: /?* Disallow: *rmp.shtml Disallow: *txt1.shtml Disallow: *txt2.shtml Disallow: /rus/ Disallow: /eng/train-ticket/ Disallow: /eng/russia/trans-siberian-railway/ Disallow: /eng/mongolia/fishing/ Disallow: /eng/mongolia/text/ Disallow: /eng/mongolia/informations/ Disallow: /eng/mongolia/ub/ Disallow: /eng/mongolia/ulaanbaatar/ Disallow: /forum/ Disallow: /eng/mongolia/tour/index.shtml Disallow: /eng/mongolia/pictures/foto.shtml Sitemap: https://legendtour.mn/sitemap_mn.xml
    Почему сайтмап указывает на неглавное зеркало? Что с форматированием?
    Ну и в третьих - всё в порядке с индексом в Гугле, что значит не появляется в поиске?
    Ответ написан
  • В поисковой выдаче по определенному запросу вместо нужной находится похожая страница - как настроить на нужную?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Не соглашусь с идеей редиректа. Пример: по частотному коммерческому запросу Яндекс ранжирует главную страницу вместо целевой в каталоге. Только потому, что ему так проще, а по текстовому контенту обе плохо проработаны. Что даст редирект кроме отказов и выпадения из ранжирования?
    Если Яндекс ранжирует не ту страницу, значит, что-то не так с целевой. И вот отсюда - следующие манипуляции:
    • Анализ текстовой релевантности. Возможно, всё упирается в плохую текстовую оптимизацию.
    • Оценка выдачи. Если по запросу там торчат, например, главные - то надо с этим что-то делать.
    • Оценка интента. Бывает, что в спектральной выдаче интент меняется по нескольку раз в год. Банально: весной студенты пошли в поиск за материалами для рефератов и курсовых - и выдача сменилась с коммерческой на информационную - до конца сессии.
    • Если всё сделано - надо немножко пнуть ПС ссылочным и поведенческими. Самый простой способ - полить целевую посадочную страницу трафиком из Директа. Много там не нужно, просто набрать какой-то объём трафика по запросам и расширить запросный индекс. То же самое - с внешними ссылками. Их взять хоть из Сапы в аренду, вполне годится.

    Ну и да, надо учитывать, что переклейка при серьёзной каннибализации - дело небыстрое, меньше квартала обычно не получается - разве что нецелевая в выдаче совсем уж неоптимизирована.
    Ответ написан
    Комментировать
  • Как сделать чтобы в поиске яндекса были отзывы и рейтинг со звездочкой?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вопрос решается соответствующей микроразметкой. Конкретную реализацю ищите в коде у тех, у кого она выводится, могут быть нюансы. По-хорошему - да, у вас должен быть реальный рейтинг, и это должно быть проверяемо, иначе разметка такого рода может быть расценена как спам.
    Ответ написан
    1 комментарий