Задать вопрос
  • Как корректно закрыть от индексации дубли?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Технические дубли не надо закрывать от индексации, их надо склеивать с целевой посадкой. Способов много, надо отбирать по конкретному движку и сайту. Где-то - использовать 301, где-то - канонические адреса, где-то и Clean-param достаточно под Яндекс.
    Ответ написан
    Комментировать
  • Где научиться профессионально искать и анализировать информацию?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Во-первых, стоит смотреть информацию по теме OSINT. Много бесплатной, есть и отдельные курсы. Ну, и инструментарий: https://www.exploit-db.com/google-hacking-database
    Во-вторых, не надо пользоваться поисковыми системами типа Гугл и Яндекс. Это, в общем, и не поисковые системы, а рекламные - уже давно. Попробуйте вот такое:
    https://biznar.com/biznar/desktop/en/search.html
    https://www.faganfinder.com/
    https://www.social-searcher.com/
    Как минимум, мультипоиск явно полезнее, чем привычные псевдо-ПС с их цензурой, рекламой и фильтрацией.
    Ответ написан
    Комментировать
  • Есть какие то текстовые редакторы анализа SEO текста прям во время написания статей?

    Devvver
    @Devvver
    seo специалист
    А чем вас бесплатные сервисы не устроили?

    https://text.ru/seo
    https://istio.com/ru/text/analyz

    Если тем фактом что они не делают анализ в WP, то обычно текст проверяется до вставки в редактор.
    Ответ написан
    Комментировать
  • Как найти все страницы с дублированным контентом?

    dimonchik2013
    @dimonchik2013
    non progredi est regredi
    если не хочешь screamingfrog и подобные сервисы - пиши самопис спайдер

    проще всего - если там CMS - вытащить все из базы и сравнить текстовым поиском / векторной близостью в postgresql

    или соспайдить и тоже сравнить, но придется в базу загонять
    Ответ написан
    Комментировать
  • Как сделать исключения для disallow в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист
    robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
    Ответ написан
    1 комментарий
  • Ссылка без анкора на сайте для SEO — хорошо или плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Безанкорные ссылки в рамках сайта не нужны. Это пустая ссылка, она никак не описывает страницу-реципиент. Разумеется, никто наказывать за такое не будет, но вы попросту сливаете ссылочный вес в пустоту.
    Если вам так уж важна кликабельность всего блока - продублируйте ссылку. Пусть она оборачивает div, но в рамках div будет нормальная анкорная ссылка (у вас - на заголовке).
    Это нормальная практика.
    Ответ написан
    2 комментария
  • Как поисковики относятся к тому, что у сайта все внешние ссылки ведут только на одну (главную) страницу?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Если у сайта только одна страница, которую цитируют другие - разве это хорошо и естественно? В нормальном случае люди в принципе не ходят на главные страницы, если речь - о сеошке. Из поиска они попадают на конкретные посадочные страницы по конкретным же запросам. А тут - ну, либо бренд очень раскачанный, уровня WB, либо ссылочный профиль всё таки кривой.
    И да, в Гугл такая схема может и работать. В Яндекс - нет, разве что как цитирование бренда. В счёт идут только анкорные ссылки, и лучше всего - ведущие на конкретные посадочные страницы. Проверяется очень просто: посмотрите на "быстрые ссылки" в Вебмастере. Там в предложенных - именно внешние анкоры.
    Ответ написан
    Комментировать
  • Какую базу данных выбрать для поисковой системы?

    @rPman
    Все зависит от планируемых размеров (пределы) базы данных, т.е. количества данных, которые необходимо индексировать. Если нужно считанные десятки тысяч сайтов отслеживать, хватит абсолютно любой sql базы данных, миллионы страниц и fulltext индексы хоть postgres хоть mysql хоть самописные на файлах (пока индексы влезают в оперативную память).

    Проблемы начинаются когда индексы не влезают в оперативную память, когда база данных расползается по кластеру или когда скоростей интернет провайдера уже не хватает для прохода обновления базы поисковой системы и данные в поиске становятся неактуальными. Начиная с какого то (большого) объема данных, простого поиска по ключевым словам уже будет недостаточно. А чего стоят алгоритмы ранжирования (сортировки результата), ведь на любой запрос у тебя будет больше чем десяток страниц результатов. Потом борьба с сеошниками, фейковыми зонами интернета (когда сайты генерируют терабайты мусорных данных, и узнаешь ты про них когда место на диске кончится или процент их содержания в индексе превысит половину), интеллектуальная интерпретация данных (с этого в принципе нужно начинать, когда страница должна восприниматься не как просто текстовый документ, а набор информационных зон, их важность (реклама, навигация или статья), разделение (несколько статей на странице), проблема динамического интернета (благодаря 15-летним инструкциям люди до сих пор делают сайты в виде ленты с постраничной навигацией с конца, когда 10-ая страница уже завтра будет показывать не те статьи что были вчера) и вообще javascript в частности и тьма тьмущая других проблем.

    Конечно, можно шикануть и использовать последние веяния ИИ, когда по информационным блокам на странице, генерируются вектора, определяющие сам смысл содержания, такие, что можно искать по ним, вычисляя расстояние между ними и запросом пользователя, только когда осознаешь стоимость бота, который будет стороить такой индекс по страницам и проблемы монетизации результата, сразу передумаешь.
    Ответ написан
    1 комментарий
  • Как изменить текст-описание сайта (при поисковом запросе) или при пересылке его?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Это метатег Description. Хотя, если он заполнен слишком криво, Гугл может подтянуть со странички что-то более подходящее.
    Ответ написан
    Комментировать
  • Почему SEO оптимизация на сайте работает некорректно?

    Судя по вопросу, тут не совсем SEO оптимизация, а больше оптимизация для соцсетей.
    Для того, чтобы сайт корректно выглядел в соцсетях, нужно правильно настроить OpenGraph разметку, которая помещается в <head>
    Для каждой соцсети свои OpenGraph тэги. Если на сайте их не использовать, то соцсеть будет генерировать карточки из того, что найдет на странице сайта.

    Пример разметки для Твиттера:
    <meta name="twitter:card" content="summary">
    <meta name="twitter:site" content="@ваш аккаунт в Twitter">
    <meta name="twitter:title" content="Название статьи">
    <meta name="twitter:description" content="Краткое описание">
    <meta name="twitter:image" content="Ссылка на изображение">

    Заголовок — до 70 символов.
    Описание — до 200 символов.
    Изображение — минимум 120×120 пикселей и не больше 1 мегабайта.

    Гуглите open graph для НАЗВАНИЕ соцсети и будет вам счастье!)
    Ответ написан
    4 комментария
  • Как успешно пройти валидацию и устранить ошибки?

    @Warlynn
    Отсутствует закрывающий тег </a>:

    <li class="footer-menu_item"><a href="#">Частые вопросы</li>
    Ответ написан
    1 комментарий
  • Как успешно пройти валидацию и устранить ошибки?

    MrDecoy
    @MrDecoy Куратор тега CSS
    Верставший фронтендер
    1) Не существует HTML элемента wrapper.
    2) Судя по всему Вы не закрыли header и разместили в нём main. Это не корректно. У Вас же тело не в голову вложены, а между ними шея ещё. То есть они идут друг за другом.
    3) Интерактивные элементы не стоит вкладывать друг в друга. Это плохая практика. Поэтому не нужно ложить кнопки в ссылки и наоборот.
    4) Про див судя по всему у Вас где-то не соответствие количество открытых и закрытых дивов.
    5) Не закрытый main

    - Ошибку про ссылку в списке Вы не показываете. (Хотя в первом li ссылка не закрыта)
    - Часто ошибки имеют каскадный эффект. Исправляешь одну - исправляется десяток.

    P.s.
    Мой первый сайт дался мне непросто
    Это нормально
    Ответ написан
    7 комментариев
  • Как быстро обновляются title и description в Яндексе?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Процесс имеет несколько стадий и фаз. Надо понимать, что Яндекс работает апдейтами, и в свои многочисленные индексы данные вносит не за один проход. И апдейты эти неравномерны в принципе.
    Если сильно обобщить, то по сайту со средней посещалкой и частотой сканирования метаданные обновляются за 5-10 дней.
    Ответ написан
    Комментировать
  • Логика структуры мультиязычного сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Я так понимаю, что целевая поисковая система – Гугл. И если так, то программиста надо как-то осадить.
    Структура многоязычного сайта должна использовать hreflang. Вот у вас основной, дефолтный домен - на украинском. У него есть вспомогательные языковые версии - русская и английская. И вы просто метатегом указываете поисковой системе, что у странички есть альтернативные версии на других языках. Соответственно, в поиске гугл и будет показывать страницу, соответствующую языку запроса и определенной локации. Вы таким образом просто подклеиваете языковые разделы к основному домену, к главной странице – самой весомой странице сайта.
    Клеить домен к папкам - это, конечно, сильная идея. Прогерам стоит вообще запретить трогать редиректы без разрешения и чёткого ТЗ, это каждый раз настоящая авария.
    Ответ написан
    Комментировать
  • Как улучшить ранжирование страницы, если ссылки на нее идут в блоке div (без анкора)?

    @wolf65
    Начинающий Frontend
    Без анкорные ссылки тоже стоит делать правильно.
    Внедряй нужные ключевые слова, прямо все ключи которые нужно, но без не злоупотребляй. К примеру у тебя страница с темой продажи роз, сделай на нее ссылку без анкора в статье где есть ключи:
    роза город
    розы город
    Розы в городе
    И тд
    Но так как тебе интересен ключ купить розы город, сделай ссылку такого плана:
    Контент....... Купить розы в городе на сайте xxx, гугл умный, он понимает все эти ключи и возьмет, да не в той доле которая взялась бы в анкорной ссылке, но ссылку без анкора можно использовать больше.
    Так же не забывай что в ранжировании хоть и участвует всего одна страница, но авторитет сайта поднимается за счет всех страниц.
    Ответ написан
    Комментировать
  • Как для двух доменов одного сайта, запретить индексацию одного из их?

    @dmitryim
    Мы решаем на уровне веб-сервера (nginx).

    Добавляем во все конфиги наших сайтов примерно такой блок (отдельным включаемым файлом, конечно):

    location /robots.txt {
        set $disallow_indexing '';
    
        if ($host ~ demo\.) {
            set $disallow_indexing 'yes';
        }
    
        if ($disallow_indexing = 'yes') {
            root /var/www/html;
        }
        if ($disallow_indexing != 'yes') {
            proxy_pass      $proxy_addr;
        }
    }


    Содержимое /var/www/html/robots.txt:

    User-agent: *
    Disallow: /


    Итого получается, что если запрашивается robots.txt с домена demo.site.ru, то ему отдается Disallow. Если же домен не содержит demo, то отдается тот robots.txt, который лежит в проекте.

    Решение получается надежным и удобным т.к. не приходится помнить про каждый отдельный проект - все демо домены закрываются автоматически.
    Ответ написан
    1 комментарий
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Как в этом случае собрать семантику для главной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Главная страница - это всегда хаб, полная презентация того, что есть на сайте. Если речь про семантику - то тут должны быть представлены ссылки на самые важные разделы. Цвет и объём едва ли относятся к важнейшим ключам в этом случае.
    В любом случае - тут в помощь любой приличный текстовый анализатор и сравнение с конкурентами.
    Ответ написан
    Комментировать
  • Как сделать чтоб по поиску выдавали вашу компанию?

    ThunderCat
    @ThunderCat
    {PHP, MySql, HTML, JS, CSS} developer
    Заносите денег, и - вуа ля!
    640f40259f747039236763.jpeg
    Ответ написан
    Комментировать
  • Как сделать чтоб по поиску выдавали вашу компанию?

    dimonchik2013
    @dimonchik2013
    non progredi est regredi
    если название компании не совпадает с популярными ключевыми словами - достаточно зарегиться в Вебмастерс и Бизнес сервисах, как Яндекса так и Гугла

    (ну, всякие Бинг Баду тоже можно, но не на этом этапе)
    Ответ написан
    Комментировать