Пытаюсь добавить правило для них
location ~ ^/(css|fonts|images|js)/.+ { proxy_pass http://127.0.0.1:8081/; }
Но снова попадаю на 404.
Чтобы найти location, соответствующий запросу, вначале проверяются location’ы, заданные префиксными строками (префиксные location’ы). Среди них ищется location с совпадающим префиксом максимальной длины и запоминается. Затем проверяются регулярные выражения, в порядке их следования в конфигурационном файле. Проверка регулярных выражений прекращается после первого же совпадения, и используется соответствующая конфигурация. Если совпадение с регулярным выражением не найдено, то используется конфигурация запомненного ранее префиксного location’а.
location ~ ^/.+ {
}
location ~ ^/(css|fonts|images|js)/.+ {
}/css/file. Шаблон ^/.+ будет проверен первым. Он совпадёт для /css/file и на этом всё закончится. Так что этот запрос уже никогда не попадёт в location ~ ^/(css|fonts|images|js)/.+ map $args $G {
default '/..';
~width= '/__';
}try_files $imgdir/$imgfile $G/static$uri $G/static1$uri $G/static2$uri $G/static3$uri @image;.txt обрабатывает самостоятельно и не передаёт их на Apache, то для /robots.txt правила из .htaccess не сработают. /robots.txt просто не доходит до Apache.$query = urldecode($_SERVER['QUERY_STRING']);
if (!mb_check_encoding($query, 'UTF-8')) {ругается на "400 The plain HTTP request was sent to HTTPS port".
s в https://external.proxy_ssl_server_name on;upstream, то еще и proxy_ssl_nameproxy_pass https://external;
proxy_ssl_server_name on;
proxy_ssl_name "api.site.com";
proxy_set_header Host "api.site.com";upstreamproxy_pass https://api.site.com;
proxy_ssl_server_name on; чтобы https://site.ru/ http запросом отдавал 301 редирект на https://site.ru ?
GET / HTTP/1.1
Host: site.ruGET HTTP/1.1
Host: site.ru
\K\$status\['[^']+'\][^']*'\K[^']*https://regex101.com/r/10CLSM/2