RewriteRule ^(.+)(type-.+?/) /$1/]\?type=$2 [L,R=301]
Однако, вам нужно не это вы хотите закрыть от индексации не уникальные страницы SKU
В таком случае вам нужно совершенно другое.
1. закрыть эту хрень ajax - в таком случае ссылка меняться не будет
2. rel canonical - на страницу без гет параметра
3. robots.txt -запретить индексирвать страницы с гет тайп
3. sitemap опять же без страниц с гет параметрами.
Вот и все
Или какую-то хрень, поскольку добавлять гет параметры к урлам просто так с точки зрения СЕО это провал.
Так же не хватает условий
1. количество каталогов , являюся ли они переменными или можно задать и так
2. тайп это признак нужного вам условия или просто пример?
3. Может у вас есть список ссылок было стало, и мы их сделаем или вам нужно именно одно условие на сайт ?
4. Что будет если это не мерседес?
Опишите более детально что и зачем вы делаете.
Желательно дать сайт
nmina, можно сделать хоть миллион правил
RewriteCond это ЕСЛИ
RewriteRule - первый после кондов это ТО.
Я вам говорил что нужны ссылки было стало, поскольку часть из них можно сделать быстро а часть сделать частными случаями.
В общем нужно было стало
вы хоть сайт покажите
затем что есть проекты в которых это очевидно важно, а так же есть ресурсы следить за всем вместе.
По фкту могу вам сказать что намного больше значения имеет какой движок чем какие настройки сайта, взламывают в 99% случаях именно определенную уязвимость в движке или компаненте или модуле или плагине.
Тут опен бейс дир вообще не плшет
Saboteur, letsencrypt - сам демон, если в контексте то имеется в виду что мне нужно проверить работу самого демона с его конфигами а не получены сертификаты и их даты.
Однако, вам нужно не это вы хотите закрыть от индексации не уникальные страницы SKU
В таком случае вам нужно совершенно другое.
1. закрыть эту хрень ajax - в таком случае ссылка меняться не будет
2. rel canonical - на страницу без гет параметра
3. robots.txt -запретить индексирвать страницы с гет тайп
3. sitemap опять же без страниц с гет параметрами.
Вот и все