Пытаюсь добавить правило для них
location ~ ^/(css|fonts|images|js)/.+ { proxy_pass http://127.0.0.1:8081/; }
Но снова попадаю на 404.
Чтобы найти location, соответствующий запросу, вначале проверяются location’ы, заданные префиксными строками (префиксные location’ы). Среди них ищется location с совпадающим префиксом максимальной длины и запоминается. Затем проверяются регулярные выражения, в порядке их следования в конфигурационном файле. Проверка регулярных выражений прекращается после первого же совпадения, и используется соответствующая конфигурация. Если совпадение с регулярным выражением не найдено, то используется конфигурация запомненного ранее префиксного location’а.
location ~ ^/.+ {
}
location ~ ^/(css|fonts|images|js)/.+ {
}
/css/file
. Шаблон ^/.+
будет проверен первым. Он совпадёт для /css/file
и на этом всё закончится. Так что этот запрос уже никогда не попадёт в location ~ ^/(css|fonts|images|js)/.+
map $args $G {
default '/..';
~width= '/__';
}
try_files $imgdir/$imgfile $G/static$uri $G/static1$uri $G/static2$uri $G/static3$uri @image;
.txt
обрабатывает самостоятельно и не передаёт их на Apache, то для /robots.txt
правила из .htaccess не сработают. /robots.txt
просто не доходит до Apache.$query = urldecode($_SERVER['QUERY_STRING']);
if (!mb_check_encoding($query, 'UTF-8')) {
ругается на "400 The plain HTTP request was sent to HTTPS port".
s
в https://external
.proxy_ssl_server_name on;
upstream
, то еще и proxy_ssl_nameproxy_pass https://external;
proxy_ssl_server_name on;
proxy_ssl_name "api.site.com";
proxy_set_header Host "api.site.com";
upstream
proxy_pass https://api.site.com;
proxy_ssl_server_name on;
чтобы https://site.ru/ http запросом отдавал 301 редирект на https://site.ru ?
GET / HTTP/1.1
Host: site.ru
GET HTTP/1.1
Host: site.ru
(?:[^']|'')+
https://regex101.com/r/W74RXE/2