Задать вопрос
  • Как выровнять текст ошибки .htaccess ErrorDocument?

    @dodo512
    htaccess: ErrorDocument takes two arguments, Change responses for HTTP errors

    Если строка заключена в двойные кавычки, то внутри этой строки их нужно экранировать обратным слешем.
    ErrorDocument 403 " 'a' \"b\" "
    Со строками в одинарных кавычках всё аналогично.
    ErrorDocument 403 ' \'a\' "b" '

    ErrorDocument 404 /page404.php мне не подходит.

    Если какие-то RewriteRule как-то конфликтуют с этим правилом, то можно проверять с каким кодом было перенаправление и для 4xx 5xx делать исключение пуская в обход основных правил.
    RewriteCond %{ENV:REDIRECT_STATUS} ^[45]\d\d
    RewriteRule ^ - [L]

    Ставить выше отстальных RewriteRule.
    Ответ написан
    3 комментария
  • Почему некоторые блокируют "якобы плохих ботов"?

    vpetrov
    @vpetrov
    частный SEO-специалист
    Причин блокировок - тонны.
    Первая - это снижение нагрузки на сервер. Не каждый провайдер спокойно отнесется даже к интенсивному обходу сайта каким-нибудь Screaming Frog.
    Вторая - это нежелание отдавать вовне важную информацию по сайту. К примеру, данные о ссылочном профиле, контенту страниц и т.п. Банально: вы не хотите, чтобы ваши данные кто-то банально спёр и разместил у себя - а это обычная практика.
    Ну, и есть ещё пачка разных суеверий у вебмастеров, которым дали чьи-то чеклисты, только не объяснили, что это конкретно и для чего.
    Ответ написан
    Комментировать
  • Почему некоторые блокируют "якобы плохих ботов"?

    @humoured
    Вы всё на свете найдёте в коробке с карандашами
    Блокируют, что бы исключить нагрузку на сервер. Боты могут бесконтрольно рекурсивно скачивать миллионы страниц с сервера, а толку от них конкретно вам не будет никакого.
    Если бы мотивацией бота был ещё какой-то смысл, он бы выдал себя за обычного пользователя.
    Ответ написан
    Комментировать
  • Тошнота с количество повторений, нужно ли что-то предпринимать?

    pro100taa
    @pro100taa
    Оставить как есть. Для интернет-магазина это абсолютно нормально. Скорее даже положительно влияет.
    Ответ написан
    Комментировать
  • Тошнота с количество повторений, нужно ли что-то предпринимать?

    Mike_Ro
    @Mike_Ro
    Python, JS, WordPress, SEO, Bots, Adversting
    Вопрос, нужно ли что-то предпринимать в этой ситуации?

    Чекнуть конкурентов в органике по этому запросу, посмотреть, как они решили эту задачу.
    Ответ написан
    Комментировать
  • Как исправить ошибку при отправки почты?

    CityCat4
    @CityCat4
    //COPY01 EXEC PGM=IEBGENER
    Запросить у админа принимающего сервера какого йуха ему надо, потому что ошибка общего плана, она означает, что принимающий сервер по каким-то там своим критериям считает отправителя недостоверным. Каковые эти критерии - кроме админа той стороны никто не обьяснит.
    Ответ написан
    Комментировать
  • Как исправить ошибку при отправки почты?

    akelsey
    @akelsey
    В ошибке написано, что сервер получателя - проверяет каждого отправителя на вашем сервере.
    Причины:
    * нет МХ записи с вашего домена
    * порт 25 закрыт фаерволом
    * отправитель отсутствует при попытке инициировать envelope часть smtp на ваш сервер и отправить письмо отправителю.

    возможны и другие варианты, разбираться следует в каждом конкретном случае, по месту.
    Ответ написан
    Комментировать
  • Почему сервис MegaIndex и ahrefs показывают разные данные, кому верить?

    Grinvind
    @Grinvind
    Помогаю увеличивать трафик с поисковых систем
    У ахрефса база больше, особенно если речь идёт про бурж. Тем не менее погрешность у обоих сервисов может быть большая. Я бы ориентировался на среднее.
    И не ещё учтите, что некоторые владельцы сайтов при продвижении сетками сайтов скрывают свою ссылочную массу от подобных сервисов.
    Ответ написан
    1 комментарий
  • Является ли это ошибкой в robots.txt?

    Royamov
    @Royamov
    seoportal.net
    Явное указание Allow: / равносильно его отсутствию (по умолчанию подразумевается разрешение индексации всего сайта), поэтому и не пишут :)
    Правильный robots.txt в Вашем случае будет таким:
    User-agent: *
    Disallow: /cabinet/
    Disallow: /search/
    Sitemap: https://site.com/sitemap.xml

    Host - устаревшая директива (к тому же её надо указывать с https, если главное зеркало доступно по защищенному протоколу), остальное просто лишнее.
    Ответ написан
    Комментировать
  • Какими сервисами можно проследить за конкурентом?

    solotony
    @solotony
    покоряю пик Балмера
    я для анализа использую семонитор и яззл. для ссылок - линкпад.

    но вряд-ли получится оценить ссылки "в динамике". для этого надо быть яндексом.
    Ответ написан
    Комментировать
  • Как в .htaccess создать такое условие?

    @dodo512
    Пустую страницу можно оформить отдельным файлом или ставить содержимое прямо в ErrorDocument.
    Поисковых ботов можно искать по HTTP заголовкам From или User-Agent.
    ErrorDocument 403 "<!DOCTYPE html><html><head></head><body></body></html>"
    
    RewriteEngine on
    
    RewriteCond %{http_Referer} !^https?://(www\.)?(site\.ru|(yandex|google)\.\w+)/
    RewriteCond %{http:From}    !(googlebot|yandex)
    RewriteRule ^ - [R=403,L]

    Ставить в начало файла .htaccess, чтобы эти правила выполнялись раньше остальных RewriteRule.
    Ответ написан
    3 комментария