• Как найти узкое место в ноутбуке?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    1. Поставить SSD в качестве системного диска под винду.
    2. Почистить автозагрузку софтом типа Vit Registry Fix или ССleaner.
    3. Почистить реестр теми же програмами.

    Чтобы поработать денёк и потом посмотреть


    Софт для определения "узких мест" не нужен. Узкие места это
    • загаженная автозагрузка
    • загаженный реестр
    • медленный винчестер HDD


    Попытка поставить еще один софт, это +1 бал к автозагрузке и +1 к реестру. Не более того.
    Ответ написан
  • Что за запрос на сервере?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    Не соглашусь про "по факту ничего нельзя сделать" и "не обращать внимания".

    Плагин Wordfence в нем прописываются все за*бистые запросы в стиле:

    /backup.sql.gz
    /backup.gz
    /directory.zip
    /directory.gz
    /backup.tar.gz
    /wp-info.php
    /public_html.zip
    /login.php
    /backup.sql.zip
    /installer-backup.php
    /readme.txt
    /clipboard.min.js
    /_config.cache.php
    /?author=1
    /cmd.php
    /author=1
    /unzipper.php
    /unzip.php
    /replace.php
    /index.php
    /options.php
    //options.php
    /xmlrpc.php
    /phpminiadmin.php
    /plugin.min.js


    При повторе подобных команд, запросов - автоматический бан.
    Особо настырных смотрим по IP здесь

    5e8ec3ff8c670145224197.png

    И вносим в бан:
    5e8ec41b02af7180945035.png

    Тут главное не переборщить, если с того пула адресов ходять клиенты - не дойдут :)

    2. Это он пытается запустить код с сайта? ThinkPHP - не установлен


    Да, у чудо бота есть набор прописанных сильно умным человеком, уязвимостей. Боты в некой мере хаотично бегают по сайтах и долбят что попало.
    Они приходят и с серверов Microsoft :) Alibaba, GoDaddy.

    Порой боты имитируют, что пришли с Google.com, потому что какой-то придур решил, что такой реферер как гугл никто не блочит... и много других не сильно умных патернов.

    Еще поможет правильный htaccess
    spoiler
    # BEGIN WordPress

    RewriteEngine On
    RewriteBase /
    RewriteRule ^index\.php$ - [L]
    RewriteCond %{REQUEST_FILENAME} !-f
    RewriteCond %{REQUEST_FILENAME} !-d
    RewriteRule . /index.php [L]


    # Deny wp config files access

    Order deny,allow
    Deny from all


    # Deny wp config

    order allow,deny
    deny from all


    # Block all requests that contain the up_auto_log parameter in the query string
    RewriteCond %{QUERY_STRING} up_auto_log=.+ [NC]
    RewriteRule .* - [F,L]

    # Deny author
    RewriteCond %{QUERY_STRING} author=\d
    RewriteRule ^ /? [L,R=301]

    # 5G:[QUERY STRINGS]

    RewriteEngine On
    RewriteBase /
    RewriteCond %{QUERY_STRING} (\"|%22).*(<|>|%3) [NC,OR]
    RewriteCond %{QUERY_STRING} (javascript:).*(\;) [NC,OR]
    RewriteCond %{QUERY_STRING} (<|%3C).*script.*(>|%3) [NC,OR]
    RewriteCond %{QUERY_STRING} (\\|\.\./|`|=\'$|=%27$) [NC,OR]
    RewriteCond %{QUERY_STRING} (\;|\'|\"|%22).*(union|select|insert|drop|update|md5|benchmark|or|and|if) [NC,OR]
    RewriteCond %{QUERY_STRING} (base64_encode|localhost|mosconfig) [NC,OR]
    RewriteCond %{QUERY_STRING} (boot\.ini|echo.*kae|etc/passwd) [NC,OR]
    RewriteCond %{QUERY_STRING} (GLOBALS|REQUEST)(=|\[|%) [NC]
    RewriteRule .* - [F]


    # 5G:[REQUEST STRINGS]

    RedirectMatch 403 (https?|ftp|php)\://
    RedirectMatch 403 /(https?|ima|ucp)/
    RedirectMatch 403 /(Permanent|Better)$
    RedirectMatch 403 (\=\\\'|\=\\%27|/\\\'/?|\)\.css\()$
    RedirectMatch 403 (\,|\)\+|/\,/|\{0\}|\(/\(|\.\.\.|\+\+\+|\||\\\"\\\")
    RedirectMatch 403 \.(cgi|asp|aspx|cfg|dll|exe|jsp|mdb|sql|ini|rar)$
    RedirectMatch 403 /(contac|fpw|install|pingserver|register)\.php$
    RedirectMatch 403 (base64|crossdomain|localhost|wwwroot|e107\_)
    RedirectMatch 403 (eval\(|\_vti\_|\(null\)|echo.*kae|config\.xml)
    RedirectMatch 403 \.well\-known/host\-meta
    RedirectMatch 403 /function\.array\-rand
    RedirectMatch 403 \)\;\$\(this\)\.html\(
    RedirectMatch 403 proc/self/environ
    RedirectMatch 403 msnbot\.htm\)\.\_
    RedirectMatch 403 /ref\.outcontrol
    RedirectMatch 403 com\_cropimage
    RedirectMatch 403 indonesia\.htm
    RedirectMatch 403 \{\$itemURL\}
    RedirectMatch 403 function\(\)
    RedirectMatch 403 labels\.rdf
    RedirectMatch 403 /playing.php
    RedirectMatch 403 muieblackcat


    # Block access to PHP files
    RewriteCond %{REQUEST_URI} !^/wp-content/plugins/file/to/exclude\.php
    RewriteCond %{REQUEST_URI} !^/wp-content/plugins/directory/to/exclude/
    RewriteRule wp-content/plugins/(.*\.php)$ - [R=404,L]
    RewriteCond %{REQUEST_URI} !^/wp-content/themes/file/to/exclude\.php
    RewriteCond %{REQUEST_URI} !^/wp-content/themes/directory/to/exclude/
    RewriteRule wp-content/themes/(.*\.php)$ - [R=404,L]

    # Block wp-includes folder and files

    RewriteEngine On
    RewriteBase /
    RewriteRule ^wp-admin/includes/ - [F,L]
    RewriteRule !^wp-includes/ - [S=3]
    RewriteRule ^wp-includes/[^/]+\.php$ - [F,L]
    RewriteRule ^wp-includes/js/tinymce/langs/.+\.php - [F,L]
    RewriteRule ^wp-includes/theme-compat/ - [F,L]


    # Block 64x links
    Options +FollowSymLinks -Indexes
    RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
    RewriteCond %{QUERY_STRING} (<|%3C)([^s]*s)+cript.*(>|%3E) [NC,OR]

    # Deny Http headers reading
    RewriteEngine On
    RewriteCond %{REQUEST_METHOD} ^TRACE
    RewriteRule .* — [F]

    # Deny access to all .htaccess files

    order allow,deny
    deny from all
    satisfy all


    # Deny SQL injection
    RewriteCond %{query_string} concat.*\( [NC,OR]
    RewriteCond %{query_string} union.*select.*\( [NC,OR]
    RewriteCond %{query_string} union.*all.*select [NC]
    RewriteRule ^(.*)$ index.php [F,L]

    # Deny hackers agents
    SetEnvIf user-agent «Indy Library» stayout=1
    SetEnvIf user-agent «libwww-perl» stayout=1
    SetEnvIf user-agent «Wget» stayout=1
    deny from env=stayout

    #Disable site folders browsing
    Options All -Indexes


    p.s. когда только поставил свежий сайт, о котором никаких упоминаний нигде нету и в помине. Ставишь плагин Wordfence и смотришь, что через два часа прибегает какой-то бот с переходом с какого-то говносайта в стиле "список новых блогов".

    Через пару дней уже поперли запросы wp-login и прочая фигня. Что эффективно обламывается плагином WPS Hide Login - который делает custom URL для входа в админку. А сам запрос wp-login вносим правило бана, просто по приколу.
    Ответ написан
  • Здравствуйте! Не могу закинуть каталог продукции в Файле пдф на сайт, что сделать?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    Вы бы скриншоты прикрепили, чего пишет, как вы его закидываете...

    Если на WP я бы закинул файл (через С-panel)
    в wp-content/uploads/2020/04/file.pdf

    И вывел ссылку на сайте для скачивания в формате:
    https://Имя Сайта/wp-content/uploads/2020/04/file.pdf
    Ответ написан
  • Использовать ли буксы/ботов в SEO?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    Запустил первый свой сайт


    Новому сайт себе во вред творить то, что творят некие товарищи, которым хотя-бы год.

    Там и проставление по 1500 ссылок в месяц с мусорных ресурсов - но попутная сему действия реклама в Google Ads. Типа "у нас есть трафик с платной нерелеватной рекламы гугла а на наши 27К беклинков вы не обращайте внимания".

    Некоторые говорят, что можно подняться в топ списка с помощью этого


    При тех же вводных данных - сайт новый, мало посетителей и по всем запросам на странице 5-6ой в выдаче?
    Наверняка они дают буст уже газующему сайту.

    Выслушал бы плавающих в этой сфере людей.


    Попробуйте поплавать следующим образом:
    1. соберите ключевые фразы, по которым вам нужно быть в топ10
    1.1. посетите топ 10-15 сайтов по этим фразам находящихся в Яше и Гусе
    2. пока без инструментов, так сказать голыми руками, введите в строке поиска Гуся site:sitename.com

    5e49bec3cf3d3041027480.jpeg

    2.1. получите список на пару страниц или десятков страниц, которые проиндексировал Гусь
    2.2. этого вам по хорошему, должно хватит на:
    - нарисовать структуру сайта конкурента
    - понять что у вас не так или что у вас все совсем не так
    - узнать какие ключевые фразы еще существуют и дополнить ваш список в пункте 1
    - узнать какие смежные запросы используются для получения трафика

    Вообщем, смотря какая ниша - на второй пункт уходит от 1-3 дней до месяца. Пол месяца на осознание и еще пол на применение осознанного.

    3. когда вы более-менее поняли "в какую сторону мыло тереть" (Д.Нагиев)
    можете прикупить на ahrefs.com лайт за 7баксов.
    5e49bffdc718e743695920.jpeg

    3.1. не забыть отменить подписку за 7дней дабы не уплатить 179$ буржуйских денег. Либо платить с виртуальной карты, где есть ровно 8денег. Варианты.

    3.2. скормить ахрефсу наиболее интересных конкурентов, снять в экселе обратные ссилки, пойти посмотреть "че как..." Если ресурсы бессплатные, пойти там поставить своих ссылок.

    3.3. посмотреть какие запросы принесли сайту наибольший трафик

    3.4. переварить

    4. воспроизвести подобное на своем сайте

    p.s. да, запуск ботов для поднятия поведенческих - это намного проще ;)

    успехов!
    Ответ написан
  • Как подключить сайт в поддериктории?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    Отвечу не в кассу, ибо попробовал это же сделать на WP - ушло 2 минуты вместе со скриншотами.

    Шаг 1
    5db4118d42a08007528684.jpeg

    Шаг 2
    5db411c54d93e105671268.jpeg

    Шаг 3
    5db411d183c03447767188.jpeg

    "Кагбе" и все на этом. Это скорее про "авторскую CMS" и целесообразность использования.
    Ответ написан
  • Почему google bot заходит на одни и те же страницы?

    Panascanic
    @Panascanic Автор вопроса
    Немного WP и немного SEO
    Итого, результаты следующие.

    Плагин Wordfence в режиме Live Traffic (нужная вещь, помогает банить конкретных редисок) "умеет" наплодить то ли кеша то ли еще чего в таком виде:

    5da6ba1416b29111169063.jpeg

    Что потом видится Google Search Console как страница. Осталось до конца не ясно, в какой момент генерации таких "страниц" гугл бот начал обхаживать 2 конкретные страницы сайта по 10 раз в час.

    Решение следующее:
    - все левые такие страницы, сгенерированные плагином Wordfence,подаем на исключение из индекса в Search Console
    - обновил robots.txt и подал его на индексацию еще раз

    После того, как Search Console скушал новый robots, вся эта эпопея с обходом двух страниц тут же закончилась.

    p.s. и по неверным догадкам, предложенным здесь же. Нет никакой рекламы и нигде она не крутиться и даже не вертится. Параметр HID в url, который проиндексировал гугл - не относится к рекламе никоим образом.
    Ответ написан
  • WordPress, как скрыть информацию из профиля пользователя от поисковиков?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    Нужно дополнительно что-то делать, что бы скрыть эту информацию от любых поисковых ботов? Если да, то что?


    Видимо нужно настроить Robots.txt

    User-agent: * # Для всех поисковых систем
    Disallow: /cgi-bin
    Disallow: /?
    Disallow: /wp-
    Disallow: *?s=
    Disallow: *&s=
    Disallow: /search/
    Disallow: /author/
    Disallow: /users/
    Disallow: */trackback
    Disallow: */feed
    Disallow: */rss
    Disallow: */embed
    Disallow: /xmlrpc.php (у меня этот файл удален, умиляюсь попытками ломать сайт через файл, которого физически нету, долбят его по 7 раз на дню)
    Disallow: *utm=
    Disallow: *openstat=
    Disallow: /tag/ # Закрываем метки
    Disallow: /readme.html # Закрываем бесполезный мануал по установке WordPress (лежит в корне) - его проще удалить
    Disallow: *?replytocom
    Allow: */uploads
    Ответ написан
  • Что не так с роботом гугла?

    Panascanic
    @Panascanic
    Немного WP и немного SEO
    С такой штукой столкнулся, когда поставил плагин Autoptimize - удаляю плагин, в глазах гугла страница стала мобильной, активирию - гуглу не нравится.
    Заодно прописал в роботс это: Allow: /wp-content/themes/****/style.css
    Гуглу все понравилось.
    Ответ написан