• Как корректно закрыть от индексации дубли?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Технические дубли не надо закрывать от индексации, их надо склеивать с целевой посадкой. Способов много, надо отбирать по конкретному движку и сайту. Где-то - использовать 301, где-то - канонические адреса, где-то и Clean-param достаточно под Яндекс.
    Ответ написан
    Комментировать
  • Где научиться профессионально искать и анализировать информацию?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Во-первых, стоит смотреть информацию по теме OSINT. Много бесплатной, есть и отдельные курсы. Ну, и инструментарий: https://www.exploit-db.com/google-hacking-database
    Во-вторых, не надо пользоваться поисковыми системами типа Гугл и Яндекс. Это, в общем, и не поисковые системы, а рекламные - уже давно. Попробуйте вот такое:
    https://biznar.com/biznar/desktop/en/search.html
    https://www.faganfinder.com/
    https://www.social-searcher.com/
    Как минимум, мультипоиск явно полезнее, чем привычные псевдо-ПС с их цензурой, рекламой и фильтрацией.
    Ответ написан
    Комментировать
  • Есть какие то текстовые редакторы анализа SEO текста прям во время написания статей?

    Devvver
    @Devvver
    seo специалист
    А чем вас бесплатные сервисы не устроили?

    https://text.ru/seo
    https://istio.com/ru/text/analyz

    Если тем фактом что они не делают анализ в WP, то обычно текст проверяется до вставки в редактор.
    Ответ написан
    Комментировать
  • Как найти все страницы с дублированным контентом?

    dimonchik2013
    @dimonchik2013
    non progredi est regredi
    если не хочешь screamingfrog и подобные сервисы - пиши самопис спайдер

    проще всего - если там CMS - вытащить все из базы и сравнить текстовым поиском / векторной близостью в postgresql

    или соспайдить и тоже сравнить, но придется в базу загонять
    Ответ написан
    Комментировать
  • Как сделать исключения для disallow в robots.txt?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    robots.txt - это про сканирование, а не индексацию. URL с параметрами надо склеивать. Для Яндекс есть Clean-param, прекрасно работает. Для прочего есть канонические адреса и мета robots.
    Ответ написан
    1 комментарий
  • Ссылка без анкора на сайте для SEO — хорошо или плохо?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Безанкорные ссылки в рамках сайта не нужны. Это пустая ссылка, она никак не описывает страницу-реципиент. Разумеется, никто наказывать за такое не будет, но вы попросту сливаете ссылочный вес в пустоту.
    Если вам так уж важна кликабельность всего блока - продублируйте ссылку. Пусть она оборачивает div, но в рамках div будет нормальная анкорная ссылка (у вас - на заголовке).
    Это нормальная практика.
    Ответ написан
    2 комментария
  • Как поисковики относятся к тому, что у сайта все внешние ссылки ведут только на одну (главную) страницу?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Если у сайта только одна страница, которую цитируют другие - разве это хорошо и естественно? В нормальном случае люди в принципе не ходят на главные страницы, если речь - о сеошке. Из поиска они попадают на конкретные посадочные страницы по конкретным же запросам. А тут - ну, либо бренд очень раскачанный, уровня WB, либо ссылочный профиль всё таки кривой.
    И да, в Гугл такая схема может и работать. В Яндекс - нет, разве что как цитирование бренда. В счёт идут только анкорные ссылки, и лучше всего - ведущие на конкретные посадочные страницы. Проверяется очень просто: посмотрите на "быстрые ссылки" в Вебмастере. Там в предложенных - именно внешние анкоры.
    Ответ написан
    Комментировать
  • Какую базу данных выбрать для поисковой системы?

    @rPman
    Все зависит от планируемых размеров (пределы) базы данных, т.е. количества данных, которые необходимо индексировать. Если нужно считанные десятки тысяч сайтов отслеживать, хватит абсолютно любой sql базы данных, миллионы страниц и fulltext индексы хоть postgres хоть mysql хоть самописные на файлах (пока индексы влезают в оперативную память).

    Проблемы начинаются когда индексы не влезают в оперативную память, когда база данных расползается по кластеру или когда скоростей интернет провайдера уже не хватает для прохода обновления базы поисковой системы и данные в поиске становятся неактуальными. Начиная с какого то (большого) объема данных, простого поиска по ключевым словам уже будет недостаточно. А чего стоят алгоритмы ранжирования (сортировки результата), ведь на любой запрос у тебя будет больше чем десяток страниц результатов. Потом борьба с сеошниками, фейковыми зонами интернета (когда сайты генерируют терабайты мусорных данных, и узнаешь ты про них когда место на диске кончится или процент их содержания в индексе превысит половину), интеллектуальная интерпретация данных (с этого в принципе нужно начинать, когда страница должна восприниматься не как просто текстовый документ, а набор информационных зон, их важность (реклама, навигация или статья), разделение (несколько статей на странице), проблема динамического интернета (благодаря 15-летним инструкциям люди до сих пор делают сайты в виде ленты с постраничной навигацией с конца, когда 10-ая страница уже завтра будет показывать не те статьи что были вчера) и вообще javascript в частности и тьма тьмущая других проблем.

    Конечно, можно шикануть и использовать последние веяния ИИ, когда по информационным блокам на странице, генерируются вектора, определяющие сам смысл содержания, такие, что можно искать по ним, вычисляя расстояние между ними и запросом пользователя, только когда осознаешь стоимость бота, который будет стороить такой индекс по страницам и проблемы монетизации результата, сразу передумаешь.
    Ответ написан
    1 комментарий
  • Как лучше для SEO реализовать 2 языка на сайте?

    Mike_Ro
    @Mike_Ro
    Python, JS, WordPress, SEO, Bots, Adversting
    en.site.com (site.com/en)

    site.com/en
    как автоматически на основе языка браузера посылать посетителя на его языковую версию?

    В вопросе указаны WordPress и "js при переключении языка из-под сервера" (NodeJS). На каком ЯП переключать - не понятно...
    если все же прибегнуть к переключателю css dispay:none для инг контента, то как тот же гугл примет одну статью для разных регионов

    Жесть.
    И есть ли смысл морочиться с этим с помощью js при переключении языка из-под сервера

    Именно так и надо делать. Определение языка на сервере (не на клиенте) по языку браузера > редирект на директорию по названию языка (site.com/en) > отдача статики (страницы) уже с определенным языком.
    И если я гуглю сайт с vpn с google.com получаю чистую инг версию, если напрямую в России - чистую ру версию

    Вообще лучше чекать именно по языку браузера. По ip - нужно иметь свежую ip базу, чтобы с ними сверяться.
    И как будут хранится артиклы в вордпрессе: одна статья в себе содержит 2 языка (2 контента в бд) или для версии site.com/en на хостинге лежит чистая инг версия сайта?

    Я бы хранил отдельными статьями. Все таки так проще прописывать title и остальные мета-теги.
    Отдельная версия типа en.site.ru даст спокойно добавлять артиклы в ру блог, не парясь об их добавлении и перевода для инг версии

    Вы правильно указали - это будет отдельный сайт, и крутить его нужно будет отдельно.
    На крайняк можно добавить виджет гугл транслейта для хот перевода ру артикла, если нет инг версии

    Поисковик не будет юзать Ваш "гугл транслейта", соответственно индексация будет не очень.

    Пример решения на php, с определением языка по заголовку браузера и ридектом на соответствующую директорию:
    if (isset($_SERVER['HTTP_ACCEPT_LANGUAGE'])) {
      $lang = substr($_SERVER['HTTP_ACCEPT_LANGUAGE'], 0, 2);
      switch ($lang){
        case "en":
          // en version
          header("Location: /en");
          exit();
        case "es":
          // es version
          header("Location: /es");
          exit();
        default:
          // ru version (default)
          break;
      }
    }
    Ответ написан
    Комментировать
  • Как изменить текст-описание сайта (при поисковом запросе) или при пересылке его?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Это метатег Description. Хотя, если он заполнен слишком криво, Гугл может подтянуть со странички что-то более подходящее.
    Ответ написан
    Комментировать
  • Почему SEO оптимизация на сайте работает некорректно?

    Судя по вопросу, тут не совсем SEO оптимизация, а больше оптимизация для соцсетей.
    Для того, чтобы сайт корректно выглядел в соцсетях, нужно правильно настроить OpenGraph разметку, которая помещается в <head>
    Для каждой соцсети свои OpenGraph тэги. Если на сайте их не использовать, то соцсеть будет генерировать карточки из того, что найдет на странице сайта.

    Пример разметки для Твиттера:
    <meta name="twitter:card" content="summary">
    <meta name="twitter:site" content="@ваш аккаунт в Twitter">
    <meta name="twitter:title" content="Название статьи">
    <meta name="twitter:description" content="Краткое описание">
    <meta name="twitter:image" content="Ссылка на изображение">

    Заголовок — до 70 символов.
    Описание — до 200 символов.
    Изображение — минимум 120×120 пикселей и не больше 1 мегабайта.

    Гуглите open graph для НАЗВАНИЕ соцсети и будет вам счастье!)
    Ответ написан
    4 комментария
  • Как успешно пройти валидацию и устранить ошибки?

    @Warlynn
    Отсутствует закрывающий тег </a>:

    <li class="footer-menu_item"><a href="#">Частые вопросы</li>
    Ответ написан
    1 комментарий
  • Как успешно пройти валидацию и устранить ошибки?

    MrDecoy
    @MrDecoy Куратор тега CSS
    Верставший фронтендер
    1) Не существует HTML элемента wrapper.
    2) Судя по всему Вы не закрыли header и разместили в нём main. Это не корректно. У Вас же тело не в голову вложены, а между ними шея ещё. То есть они идут друг за другом.
    3) Интерактивные элементы не стоит вкладывать друг в друга. Это плохая практика. Поэтому не нужно ложить кнопки в ссылки и наоборот.
    4) Про див судя по всему у Вас где-то не соответствие количество открытых и закрытых дивов.
    5) Не закрытый main

    - Ошибку про ссылку в списке Вы не показываете. (Хотя в первом li ссылка не закрыта)
    - Часто ошибки имеют каскадный эффект. Исправляешь одну - исправляется десяток.

    P.s.
    Мой первый сайт дался мне непросто
    Это нормально
    Ответ написан
    7 комментариев
  • Как быстро обновляются title и description в Яндексе?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Процесс имеет несколько стадий и фаз. Надо понимать, что Яндекс работает апдейтами, и в свои многочисленные индексы данные вносит не за один проход. И апдейты эти неравномерны в принципе.
    Если сильно обобщить, то по сайту со средней посещалкой и частотой сканирования метаданные обновляются за 5-10 дней.
    Ответ написан
    Комментировать
  • Логика структуры мультиязычного сайта?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Я так понимаю, что целевая поисковая система – Гугл. И если так, то программиста надо как-то осадить.
    Структура многоязычного сайта должна использовать hreflang. Вот у вас основной, дефолтный домен - на украинском. У него есть вспомогательные языковые версии - русская и английская. И вы просто метатегом указываете поисковой системе, что у странички есть альтернативные версии на других языках. Соответственно, в поиске гугл и будет показывать страницу, соответствующую языку запроса и определенной локации. Вы таким образом просто подклеиваете языковые разделы к основному домену, к главной странице – самой весомой странице сайта.
    Клеить домен к папкам - это, конечно, сильная идея. Прогерам стоит вообще запретить трогать редиректы без разрешения и чёткого ТЗ, это каждый раз настоящая авария.
    Ответ написан
    Комментировать
  • Как улучшить ранжирование страницы, если ссылки на нее идут в блоке div (без анкора)?

    @wolf65
    Начинающий Frontend
    Без анкорные ссылки тоже стоит делать правильно.
    Внедряй нужные ключевые слова, прямо все ключи которые нужно, но без не злоупотребляй. К примеру у тебя страница с темой продажи роз, сделай на нее ссылку без анкора в статье где есть ключи:
    роза город
    розы город
    Розы в городе
    И тд
    Но так как тебе интересен ключ купить розы город, сделай ссылку такого плана:
    Контент....... Купить розы в городе на сайте xxx, гугл умный, он понимает все эти ключи и возьмет, да не в той доле которая взялась бы в анкорной ссылке, но ссылку без анкора можно использовать больше.
    Так же не забывай что в ранжировании хоть и участвует всего одна страница, но авторитет сайта поднимается за счет всех страниц.
    Ответ написан
    Комментировать
  • Как для двух доменов одного сайта, запретить индексацию одного из их?

    @dmitryim
    Мы решаем на уровне веб-сервера (nginx).

    Добавляем во все конфиги наших сайтов примерно такой блок (отдельным включаемым файлом, конечно):

    location /robots.txt {
        set $disallow_indexing '';
    
        if ($host ~ demo\.) {
            set $disallow_indexing 'yes';
        }
    
        if ($disallow_indexing = 'yes') {
            root /var/www/html;
        }
        if ($disallow_indexing != 'yes') {
            proxy_pass      $proxy_addr;
        }
    }


    Содержимое /var/www/html/robots.txt:

    User-agent: *
    Disallow: /


    Итого получается, что если запрашивается robots.txt с домена demo.site.ru, то ему отдается Disallow. Если же домен не содержит demo, то отдается тот robots.txt, который лежит в проекте.

    Решение получается надежным и удобным т.к. не приходится помнить про каждый отдельный проект - все демо домены закрываются автоматически.
    Ответ написан
    1 комментарий
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Как в этом случае собрать семантику для главной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист, textarget.ru
    Главная страница - это всегда хаб, полная презентация того, что есть на сайте. Если речь про семантику - то тут должны быть представлены ссылки на самые важные разделы. Цвет и объём едва ли относятся к важнейшим ключам в этом случае.
    В любом случае - тут в помощь любой приличный текстовый анализатор и сравнение с конкурентами.
    Ответ написан
    Комментировать
  • Как сделать чтоб по поиску выдавали вашу компанию?

    ThunderCat
    @ThunderCat
    {PHP, MySql, HTML, JS, CSS} developer
    Заносите денег, и - вуа ля!
    640f40259f747039236763.jpeg
    Ответ написан
    Комментировать