alexalexes, Абсолютно согласен. Но иногда полезные, как в моём случае. Чтобы у ребенка былы всегда на виду цифровые часы в трее и аналоговые со стрелками - для запоминания и сопоставления. Ну а загрузка ЦПУ/ОЗУ в догонку. Вопрос не настолько важен... Просто я еще верен Win 7 и данный вопрос озадачил меня немного. Спасибо первому комментатору - видимо, не смог найти в англоязычном гугле по причине не настолько хорошего знания языка...
АртемЪ, Такой финт ушами я никогда не делал, но логику оценил...
Правильно ли я понимаю, что: надо поставить систему на HDD, потом её "клонировать" (образ) на SSD. Далее заставить грузиться систему с SSD (как? - например партишен мэйджиком?) ?
Первоначальная задача как раз такая: система должна работать на максимальной производительности. В данном случае NVMe SSD M.2.
Абсолютно не интересно для файлов делать высокую производительность - только для системы.
Moskus: да, прошаблон кода я понимаю, т.к. в "^User-agent" надо подставлять конкретное что-то (сам поисковик либо фрагмент). А то, что обрезает код - к сожалению, в комментариях это нельзя применить (например я Вам пишу ответ), это если только общий ответ писать - там да, можно обернуть в код или конкретный язык. Я всё же прислушуюсь к Вам... действительно, статический файл роботс запрашивается не так часто, чтобы существенно увеличить нагрузку на сервер в общем...
Тостер обрезает код. Вот так (только без пробелов):
SetEnvIfNoCase User-Agent "^User-agent" search_bot
< Files robots.txt >
order deny,allow
deny from all
allow from env=search_bot
< /Files >
Moskus: я попросил помощи у хостера, и вот каков был ответ. Не всё так просто. "Мы написали правило, которое позволяет блокировать доступ к файлу robots.txt для пользователей, однако разрешает доступ для указанных Вами юзер-агентов:
order deny,allow
deny from all
allow from env=search_bot
Однако, файл robots.txt является статическим файлом, в связи с чем обрабатывается веб-сервером NGINX, и правила файла .htaccess на него не срабатывают.
Мы можем переключить режим отдачи статики для Вашего сайта, после чего правило будет работать корректно.
Но при этом может увеличиться количество потребляемых сайтом ресурсов, т.к. все статические файлы будут обрабатываться веб-сервером Apache."
Вот и думаю - на сколько увеличится нагрузка... Стоит ли статику включать?..
Moskus: Добрый день. Большое спасибо за уделяемое время. SetEnvIfNoCase User-Agent .*google.* search_robot
SetEnvIfNoCase User-Agent .*yandex.* search_robot
Order Deny,Allow
Deny from All
Allow from env=search_robot
Не работает, равно как и . Этот код прописываю в самое начало htaccess, естественно всё в корне сайте. :(
Вы не поняли. rorbots.txt - это служебный файл, который предназначен только для поисковиков. Вот и задача стоит - сделать его только для поисковиков. Чтобы нельзя было его открыть в публичном виде никому, кроме прописанных в htaccess роботов.
Ankhena W: есть некоторые вещи, которые необходимо закрыть от индексации для ПС. В том числе, это могут быть служебные разделы. Эти вещи (которые закрыты для поисковиков) должны быть закрыты для всех.
Moskus: Олег: К сожалению, я не компетентен в этих вопросах, поэтому и спросил мнение специалистов. Необходим просто код прям цитатой - что вставить в htaccess, чтобы было 403 для всех кроме роботов. Совсем глубоко копать не надо, по типу curl_setopt и т.д.. Максимальной "защиты от дурака" хватит, остальное же - полноценное администрирование сервера. А здесь - просто хостинг. Благодарю.
Ankhena W: Пожалуй, Вы очень смутно понимаете вопрос. При чем здесь robots.txt и ссылки для людей? Вам на моём (любом) сайте нужен роботс? - нет. А некоторым людям он может быть полезен. Если нечего написать - ничего не пишите.
Написано
Войдите на сайт
Чтобы задать вопрос и получить на него квалифицированный ответ.