Задать вопрос
  • Как улучшить ранжирование страницы, если ссылки на нее идут в блоке div (без анкора)?

    @wolf65
    Начинающий Frontend
    Без анкорные ссылки тоже стоит делать правильно.
    Внедряй нужные ключевые слова, прямо все ключи которые нужно, но без не злоупотребляй. К примеру у тебя страница с темой продажи роз, сделай на нее ссылку без анкора в статье где есть ключи:
    роза город
    розы город
    Розы в городе
    И тд
    Но так как тебе интересен ключ купить розы город, сделай ссылку такого плана:
    Контент....... Купить розы в городе на сайте xxx, гугл умный, он понимает все эти ключи и возьмет, да не в той доле которая взялась бы в анкорной ссылке, но ссылку без анкора можно использовать больше.
    Так же не забывай что в ранжировании хоть и участвует всего одна страница, но авторитет сайта поднимается за счет всех страниц.
    Ответ написан
    Комментировать
  • Как для двух доменов одного сайта, запретить индексацию одного из их?

    @dmitryim
    Мы решаем на уровне веб-сервера (nginx).

    Добавляем во все конфиги наших сайтов примерно такой блок (отдельным включаемым файлом, конечно):

    location /robots.txt {
        set $disallow_indexing '';
    
        if ($host ~ demo\.) {
            set $disallow_indexing 'yes';
        }
    
        if ($disallow_indexing = 'yes') {
            root /var/www/html;
        }
        if ($disallow_indexing != 'yes') {
            proxy_pass      $proxy_addr;
        }
    }


    Содержимое /var/www/html/robots.txt:

    User-agent: *
    Disallow: /


    Итого получается, что если запрашивается robots.txt с домена demo.site.ru, то ему отдается Disallow. Если же домен не содержит demo, то отдается тот robots.txt, который лежит в проекте.

    Решение получается надежным и удобным т.к. не приходится помнить про каждый отдельный проект - все демо домены закрываются автоматически.
    Ответ написан
    1 комментарий
  • Как должен выглядеть анкор план?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Однозначного ответа нет и быть не может.
    Наиболее полезны именно анкорные ссылки, их ещё называют "денежными". Именно они влияют на ранжирование, поскольку не просто связывают два хоста, а предлагают ещё и описание страницы реципиента.
    Из ключей в анкорах складывается монолитный индекс, составляющий список ключей, по которым страница видна в поиске.
    Но надо понимать, что именно за анкоры ПС и наказывают, если сочтут это спамом. Это достаточно тонкий лёд, и вам стоит провести предварительный анализ в своей нише (и гео-зоне). Например, то, за что гугл карает в бурже, спокойно прокатывает (пока) в рунете - хотя декабрьский спам-апдейт тут кое-что поменял, судя по всему.
    Яндексу же безанкорка вообще неинтересна. Если вы посмотрите в список "быстрых ссылок" в Яндекс-Вебмастере, то обнаружите, что он предлагает по страницам текст анкоров внешних ссылок (вплоть до "Читать...", "Далее..." и т.п.).
    В общем, соберите данные по конкурентам в топах и отталкивайтесь от медианных цифр - по анкорам, объёмам анкорных и безанкорных, явно купленных и естественных и т.п.
    Ответ написан
    Комментировать
  • Как в этом случае собрать семантику для главной страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Главная страница - это всегда хаб, полная презентация того, что есть на сайте. Если речь про семантику - то тут должны быть представлены ссылки на самые важные разделы. Цвет и объём едва ли относятся к важнейшим ключам в этом случае.
    В любом случае - тут в помощь любой приличный текстовый анализатор и сравнение с конкурентами.
    Ответ написан
    Комментировать
  • Как сделать чтоб по поиску выдавали вашу компанию?

    ThunderCat
    @ThunderCat
    {PHP, MySql, HTML, JS, CSS} developer
    Заносите денег, и - вуа ля!
    640f40259f747039236763.jpeg
    Ответ написан
    Комментировать
  • Как сделать чтоб по поиску выдавали вашу компанию?

    dimonchik2013
    @dimonchik2013
    non progredi est regredi
    если название компании не совпадает с популярными ключевыми словами - достаточно зарегиться в Вебмастерс и Бизнес сервисах, как Яндекса так и Гугла

    (ну, всякие Бинг Баду тоже можно, но не на этом этапе)
    Ответ написан
    Комментировать
  • Как посчитать количество переходов по ссылке?

    ThunderCat
    @ThunderCat
    {PHP, MySql, HTML, JS, CSS} developer
    Если есть возможность отслеживать utm метки на маркетплэйсе - раздавайте утм ссылки.
    Если такой возможности нет - пользуйтесь шортлинками, они позволяют отслеживать количество линков (например bit.ly).
    Ответ написан
    Комментировать
  • Почему не получается поделиться подпиской Яндекс?

    Bagunda
    @Bagunda Автор вопроса
    Оказывается: подключившись к Российскому VPN - подтверждение срабатывает и всё начинает работать.
    Без ВПН - можно попросить кого-нибудь в России авторизоваться в почте и пройти по ссылке.
    Ответ написан
    Комментировать
  • Как отличить заявки от клиентов, пришедших благодаря SEO продвижению, от заявок клиентов пришедших другими путями?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Вопрос-то, по сути, не про сеошку. По идее решается средствами сквозной аналитики, там инструментария достаточно.
    По факту - всё это будет вилами по воде. В рамках сеошки у вас есть Метрика, GA, данные по динамике в поиске (позиции, траф, оценка качества трафика по каким-то метрикам). И надо понимать, что во многих темах клиент может найти вас в поиске, зайти почитать-посмотреть, сохранить в закладках, потом зайти напрямую хоть даже по брендовому запросу из поиска. А потом просто позвонить или написать в мессенджер через время.
    Я бы начал с оценок конверсий в Яндекс-Метрике, если клиенту (если вы сеошите) или вам (если вы владелец бизнеса или маркетолог) нужны данные по конверсиям. Если этого будет мало - надо внедрять сквозную аналитику, тут без вариантов, кмк.
    Ответ написан
    1 комментарий
  • Как через запросы искать информацию в гугле?

    @rPman
    В данный момент у меня стоит задача подсчитать страницы таких сайтов как википедия, ютуб и т.д.
    простые задачи не для тебя, считай весь интернет перебирать взялся

    Правильный подход у тебя описан - перебирать все ссылки (ты еще про map-ы забыл, одно время были популярны, чтобы по ним пройтись можно было прокликать с каким то шагом по всей площади картинки), все остальные подходы - это оптимизации и лимиты.

    Если у тебя не стоит задача исполнять javascript (т.е. считать что все ссылки на сайте доступны без его включения) то рекомендую воспользоваться готовыми инструментами, например wget умеет делать полную копию сайта с указанным уровнем вложенности.

    Если стоит задача обрабатывать javascript то у тебя проблемы, никаких других универсальных способов, кроме как открывать сайт в браузере - нет, но можно взять старые версии webkit (версии, выпущенные лет 5-10 назад), на их основе мини браузер для анализа сайта будет потреблять очень мало оперативной памяти, а значит на одной машине таких скраперов может быть запущено сотнями, понятно что не все сайты смогут так работать, но процент достаточно высокий.

    Так же можно попытаться разработать алгоритмы по определению, требует ли сайт полноценный браузер или ему хватит обычного wget и его аналогов. Что то можно вытащить, определив движок, на котором сайт написан, 90% интернета используют готовые фреймворки, у многих из них свои способы, где то можно попытаться вытащить карту сайта из кода, не выполняя его... стоит ли такая работа экономии на процессорах, хз
    Ответ написан
    2 комментария
  • "Одинаковые заголовки и описания страниц". Нужно ли исправлять?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Оцените характер трафа, посмотрите, как реализовано у топовых.
    Я не продвигал сайты такого типа, но предположу:
    а) Большой процент трафа должен подразумеваться из "Картинок" ПС. Стало быть, закрывать такие странички в ноиндекс - себе дороже.
    б) Значение имеют страницы категорий и тегов. Тегируйте каталог по классике, делайте, как в больших интернет-магазинах на оценке поискового спроса. Ну банально: есть спрос на "валпейпер 1920 тёмный киберпанк" - нужна категория.
    в) Шаблонизация рулит. Что мешает при загрузке картинки дать ей внятное название, которое будет подставляться в тайтл и дескрип? Ну там по типу "Обои на рабочий стол + Синее море с пальмой + 1920х1080 + скачать бесплатно".
    К этому добавьте микроразметку по картинкам. Она не для сниппетов нужна, а чтобы ПС понимали, чем вот эта страничка с минимумом контента отличается от той, где всё практически идентичное. В индекс всё равно всё не пойдёт, но будет заметно проще с техничкой - как минимум.
    Ответ написан
    3 комментария
  • Что означает "Другая ошибка" в Google mobile-friendly?

    @BorisKorobkov
    Web developer
    Он же пишет по-русски "Не удалось загрузить". Возможно, в момент проверки ваш сайт тупил.

    Повторная проверка уже все загрузила, ошибок нет: https://search.google.com/test/mobile-friendly?vie...
    Ответ написан
    Комментировать
  • Отказы в chrome и их влияние на SEO?

    Mike_Ro
    @Mike_Ro Куратор тега Поисковая оптимизация
    Python, JS, WordPress, SEO, Bots, Adversting
    Что это может быть?

    Вероятно, крутят ПФ (поведенческие факторы).

    И повлияет ли это на выдачу?

    Это точно не улучшит Ваш позиции в органике, но вот на сколько Вы просядете - зависит от множества факторов.

    Есть ли способы борьбы с этим?

    Ранее, я задавал вопрос в смежной области, но в комментах мы ушли в накрутку ПФ https://qna.habr.com/q/1187714#comment_3112676 .

    Если резюмировать, то здесь одно из:
    - Это лох, который крутит Вам ПФ с НЕ с мобильных прокси + слабо маскируется под реального пользователя - банить по ip, заголовкам и множеству остальных параметров.
    - Если это не лох, то он использует мобильные прокси, а значит отбиться по ip будет невозможно, либо потеряете львиную долю посетителей.
    Ответ написан
    Комментировать
  • Как быть с сайтами в топе которые скоро надо закрыть ввиду нового сайта и переименования бренда?

    @Kypidon4ik
    Фрилансер, Wordpress developer
    Сделай редиректы с A и B на C
    PS Только не простой редирект (где все url с a будут указывать на homepage) а по умному с A/tovar12345 на C/tovar12345
    Ответ написан
    Комментировать
  • Проблема в индексировании страниц в Google Search Console. Как решить?

    google очень плохо индексирует страницы в последнее время, я уже тут писал ранее, но если в двух словах что я заметил:
    1) карта сайта может быть правильной, страницы уникальнейшие, сайт отличным, ошибок в консоли нет - а результат почти нулевой, мало страниц в индексе. Но проверить карту конечно стоит в верификаторе.
    2) не любит домены типы store, top, pro и т.п. в последнее время и ru
    3) не особо любит когда его грузят тысячами страниц, индексирует их очень медленно и подозрительно, в то же время если страницы штучные, то в индекс влетает в течение пары дней - вот например https://www.google.com/search?q=site%3Ahttps%3A%2F... - буквально неделю назад был совершенно нулевой в google и через несколько дней уже страниц 10 в индексе.
    4) не любит запутанные структуры, каждая страница должна быть в одном варианте, чтобы как можно проще и понятнее.
    5) не любит тяжелые грузные сайты, типа с кучей pdf или видео встроенного и т.п., он их реально дольше обрабатывает, ну и в целом не любит тормозные сайты, которые по 20 сек загружаются в пейджспид.

    ну и ждать.
    не дергаться.
    нормой сейчас считается 1-2 месяца и уже должны произойти какие-то более чувствительные изменения в индексе, а не просто пара страниц, хотя бы половина уже должна проиндексироваться успешно.
    Ответ написан
    1 комментарий
  • Где сегодня купить вечные seo-ссылки для .com (зарубежная аудитория)? И нужно ли это для Google?

    Google у многих так себя ведет, отвратительно индексирует сайты, вообще такое чувство что ему надоело всё это ))
    Ссылки теоретически могут помочь, я обычно беру на GGL, более подробно о том, как я это делаю, размещал видео тут https://moytop.com/prodvizhenie-sajtov/rejting-bir..., может пригодится.
    Только вот сейчас обратил внимание, что ищете для зарубежной аудитории, я слышал только https://www.mainlinkads.com/ но толком не сталкивался.
    Ответ написан
    1 комментарий
  • Какие вы выделяете самые эффективные сервисы для новичка?

    opium
    @opium
    Просто люблю качественно работать
    используйте голову откажитесь на первом этапе от сервисов кроме частотника гугла и вордстата
    Ответ написан
    Комментировать
  • Как алгоритмы Google могут определять реальное местоположение, несмотря на VPS?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Дело не в IP, а в фингерпринтах. Туда и советую копать.
    Ответ написан
    Комментировать
  • Почему яндекс индексирует запрещенные страницы?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Выше уже сказали, что директивы оформлены с ошибками.
    Отмечу нюанс: robots.txt управляет сканированием, не индексацией. Это совершенно разные вещи.
    Ответ написан
    Комментировать