Задать вопрос
  • Можно ли как-то через .htaccess спрятать от российских ip-адресов спорные ссылки и материалы?

    rPman, я понимаю клоаку не как место слива нечистот, а как способ сокрытия какого-то контента - чисто технический. И со времен, когда поисковики за клоаки нещадно банили, многое поменялось.
    • Поисковики перестали быть поисковыми системами, превратившись в рекламно-информационные с остаточными функциями поиска
    • Появились SPA, которые без предварительного рендеринга ПС вообще не видят. А то, что они получают в виде готового рендера, чаще всего сильно отличается от того, что получает юзверь в силу персонализации
    • Ранжируется не документ, а шингл. Можно стоять по запросу в топ-1 не потому, что релевантен документ, а потому, что там есть пара предложений, соответствующих запросу
    • Шиза в интернете нарастает. Я тычу в ссылку, и выясняю, что этот контент от меня закрыт (для страны вообще, там paywall и т.п.)

    В данном конкретном случае я вообще бы подумал о создании второго сайта, не для РФ. Это, возможно, более затратный вариант (хотя идея на перспективу выглядит разумной). Но почему бы не клоаки? Мы же не раскручиваем страничку с продажей веществ, показывая поисковикам контент о пользе физкультуры?
    Написано
  • Как защитить сайт от ботов с отказами?

    MelkijTim, и Гугл, и Яндекс используют классификацию сайтов, которая опирается на некоторые шаблоны, формируемые оценками асессоров и машинным обучением. Яндекс, похоже, зависит от неё сильнее.
    Шаблонизируется не только сайт, но и профиль пользователей. Что из себя представляет шаблон: это матричное представление вида [0,12345. 0, 54321, 0,5678...] где каждое число представляет собой какую-то характеристику пользователя - его интересы, пол, возраст, регион, устройство и т.п.
    Соответственно, так же оцифровываются и сайты, и запросы. А дальше при персонализации используется вычисление близости профилей: скажем, косинусная близость или евклидово расстояние. Чем ближе профили - тем выше вероятность, что именно этому человеку по этому запросу покажут эти вот сайты.
    Профили ботов, как правило, грубы и однообразны (одни и те же фингерпринты, малый и однообразный профиль интересов - притом подобранных по Яндекс-Метрике), одни и те же запросы, одна и та же модель поведения.
    И боты не покупают. Яндекс, выявив, какой аудитории сайт "нравится" (опираясь на клики и прочее) начинает показывать сайт именно такой аудитории. И вот у нас есть топ (по XML или персоналке), но это не общий топ - это топ для аудитории, которая не покупает. И получается стандартная история для плохих накруток ПФ: топ есть, продажи - в пол. Снимаем накрутки - позиции падают, а продажи растут - за счёт того, что меняется соотношение ботной и целевой аудитории.
    Написано
  • Какая AI модель дешевле в пересчете на решение задачи в программировании?

    Дмитрий, ну вот я о том же.
    Мне персонально выгоднее заплатить, чем морочиться с локалкой. Единственный вариант – это задачки уровня EmbeddingGemma.
    Написано
  • Как выбрать CMS-систему для небольшого интернет-магазина?

    Adamos, есть такое. Я просто во многих случаях найдя товар на МП потом ищу офсайт - ради отсутствующей информации. Ну банально: вы продаёте музыкальный инструмент, но никаких примеров звука. Кот в мешке.
    Или я беру что-то не совсем общее-понятное, там тоже нужны какие-то детали - скажем, уточнить особенности покроя для одежды-обуви, марку стали для инструмента и т.п. А на МП такого нет. Не предусмотрено.
    Написано
  • Как выбрать CMS-систему для небольшого интернет-магазина?

    Adamos, согласен. Но тут могут быть исключения: скажем, она кастомные сумки шьёт с хитрыми дизайнами по индивидуальным заказам. Такое на МП потеряется, и хорошо бы иметь собственную презентацию товара и так, и эдак. Мракетплейсы редко предоставят такую возможность чисто технически - там всё по шаблону, заточенному под огромный ассортимент китайского дешмана.
    Написано
  • Как защитить сайт от ботов с отказами?

    MelkijTim, я бы сказал, что это показатели достаточно средние по рынку, если брать b2c и интернет-магазины.
    Какой-то процент ботовни с отказами - норма для всех. Но если маркетплейсу такое - что кот чихнул, то маленькому молодому сайту проблема. Ему надо поведенческие, исторические и коммерческие настукивать, а вместо реальных посетителей он получает только ботов-недоделок. У вас, я так понимаю, достаточно неплохие показатели, вполне себе в пределах нормы.
    Если нет никаких признаков того, что на сайт ведется целенаправленная атака (а судя по описаниям - тут обычный нагул профилей), не вижу поводов для беспокойства.
    Написано
  • Как анти-бот системы определяют ботов и как от них защищаться?

    Михаил Р., я бы добавил ещё один момент: у ПС уже есть представление о том, как выглядит реальная аудитория. Чистая математика. А Яндекс действует просто: всё, что признаётся аномалией - выбрасывается из учёта.
    И совсем беда, если кроме этой "аномалии" нету больше ничего. В таком случае на персонализации сайт он будет показывать только тем, кто похож на ботов по профилю, целевая аудитория отсекается.
    И вот тогда ни о каких продажах на перспективу говорить уже не стоит. Топы (для ботообразной аудитории) - есть, продаж - нету.
    Написано
  • Перейдут ли фильтры если сделать 301?

    Ark111, давно я не видел, чтобы после хрумака фильтры были, если речь про рунет. Позиции сейчас можно потерять много за что, и "токсичные" ссылки тут - где-то ближе к концу, если брать причины.
    Написано
  • Как повысить релевантность страницы запросу?

    Алексей Благородов, ну, тут навскидку не скажешь, только обобщая.
    а) Гугл и Яндекс оценивают страницы совсем по-разному. Гугл по факту берет целый узел, выбирает что-то в качестве канонической - и его и ранжирует. Для Яндекс на скриншотах скорее всего речь идёт не об одной странице. Чтобы быть в топах по запросу "заборы" - надо, чтобы были представлены "из профнастила", "рабица", "деревянные, штаектник" и "бетонные" впридачу.
    б) Возможно, проблема упирается не в текстовые метрики, а всё в те же ПФ и пользовательские сигналы. Гугл их пересчитывает эдак раз в год, Яндекс - постоянно. Я бы для теста попробовал либо ботами полить, либо хоть Директом, и посмотреть на динамику.
    в) У Гугла выдача более "застойная", он перемен не любит. А в Яндексе есть концепция "всем сёстрам по серьгам", и выдачу он перетряхивает примерно как в казино. Вот условные 50 бизнесов, примерно одинаковых по уровню - а топ-то не резиновый. И вот условно раз в квартал или чаще он своё колесо удачи поворачивает, а мы потом головы ломаем - что пошло не так, или наоборот - что такого хорошего сделано. А по факту - ничего, это просто Яндекс следит, чтобы не было застойности выдачи.
    Я бы всё же посмотрел, один ли это кластер, если реально не один - добавил бы соответствующие посадочные страницы. По запросу "цены на заборы" Яша с большей степенью вероятности покажет страницу с прайс-листом, калькулятором или какой-нибудь агрегатор, где эти цены представлены в полном объёме.
    Написано
  • Как лучше поступить если нет title, h1 или description?

    haznanooe, для сеошки-то ценности в таком заголовке всё равно нету. Хороший контент зайдёт в поиск и без всего этого, так что я бы пока эту проблему отложил до получения хоть каких-то результатов
    Написано
  • Если купил домен а у него были куплены ссылки?

    fvc24, много раз сталкивался с ситуацией, когда клиенту предыдущие продвигаторы тысячами в месяц лили ссылочное хрумаком - с каких-то спам-сеток, порносайтов и т.п. Эффекта - ноль, что в Яндекс, что в Гугл. Ни в плюс, ни в минус. Такие ссылки всё реже попадают в индекс, и ещё реже учитываются в ранжировании.
    Если бы вы именно перехватили домен у кого-то, когда он ещё не потерял регистрацию - это был бы полноценный дроп, и вы могли наследовать все его свойства. Судя по описанию, в вашем случае вы просто не первый владелец этого домена, и в базе ПС уже ничего не осталось. Гугл, конечно, ничего не забывает (почти), это надо проверять. Смотрите веб-архив и сервисы, оценивающие видимость домена. Если там есть что-то явно нехорошее - это повод думать.
    Написано
  • Правильно я понимаю планировщик ключевых запросов?

    flash256, ну так это логарифм. Цифры могут всерьёз отличаться. Это вот "0-10" означает просто "очень мало".
    В принципе, плюсану к мнению, что так, вероятно, просто не спрашивают по каким-то причинам. Может быть, стоит оценить ключи типа "поставщик оптом...", "производитель..." и т.п.
    Написано
  • Правильно я понимаю планировщик ключевых запросов?

    flash256, так а что с кампанией? При наличии бюджета информация по запросам намного полнее.
    Без этого Гугл ограничивается вот таким "очень мало - мало - нормально - много".
    Я бы вообще попробовал обратиться к сторонним системам статистики уровня Semrush. На Кворк можно заказать выгрузку за вменяемый прайс.
    Написано
  • Странное поведение метрики?

    Михаил, логика немного не такая. Вот ботовод подготовил большой список запросов по каким-то смежным с его сайтом темам. Спарсил выдачу -там могут быть десятки тысяч сайтов. Сайты без Метрики и с Метрикой - отдельно. Запустил своих буратин, набирающих историю и куки, в ряде случаев - чтобы показаться Яндексу.
    Если вы что-то и поменяете - он едва ли это заметит и внесет корректировки в свой список, разве что совсем потом - через месяц, квартал, никогда.
    Написано
  • Плагин для обновления даты публикации и даты изменения на WordPress?

    Иван К, логично. Можно и без плагинов обойтись, для этого cron есть.
    Но зачем?
    Написано
  • Как лучше создать мультиязычный сайт?

    Ankhena, ну факт, что в одном случае ссылок надо кратно больше. Да и субдомены - это пачка потенциальных проблем. Как по мне языковые версии на папках с hreflang - оптимально для большинства случаев.
    Хотя, конечно, бывают варианты.
    Написано
  • Как лучше создать мультиязычный сайт?

    Ankhena, хостинг-то ерунда.
    А со ссылочным как?
    Написано
  • Какой самый мощный сервис статистики для сайта?

    reservist62, я пробовал. Гиблое это дело. Если льёт кто-то один, и для чего-то типа прокачки профиля бота - там более-менее просто. Один и тот же пул IP, фингерпринты и всё такое. Да и заходы там - либо прямые, либо с фейковыми рефками.
    А вот более прокачанных уже не отличить.
    Метрика ориентируется на медианные метрики профилей, и то, что в эту медиану не попадает – отфильтровывает. Банально: зашёл в инкогнито – в стату не попал, даже в роботное. Ну или они решили, что вот эти запросы имеют отношение к персональной информации. Летом я в саппорт к ним писал на эту тему: предыдущий подрядчик настроил сегменты аудитории, и всё это добро по итогам в статистику не попадало. Снёс сегменты - траф появился.
    Написано