еще много зависит от самих винтов, если ssd конечно время будет меньше, да и старые он не трогает только новые, но да при большом количестве новых файлов он будет не очень шустро это делать.
вещь нормальная работает вполне стабильно, но долго, для синхронизации кластера с 60000 файлами он 1 раз прогоняет их около 20 часов, что конечно не является супер клевым значением. но зато легко настраивается.
конечно можно снизить до раз в час может даже до 6 часов.но мы Веб студия и просер домена это .... так что следитьв последний день проплатил ли клиент это вообще нормальное явление, актуализация в этом вопросе не повредит. Да и орать на клиента что он козел в момент когда он уже оплатил два раза тоже не оченьприятно. Так что как вариант вполне норм, но решение явно имеет ограничение ;(
В начале вставьте вот так
RewriteEngine On
RewriteBase /
Options +FollowSymLinks
RewriteCond %{REQUEST_URI} ^(.*)/{2,}(.*)$
RewriteRule . %1/%2 [R=301,L]
по хорошему не только дату а вобще все, но я не нашел ни одного АПИ ни одного скрипта который бы это делал валидно. фактически сейчас каждый случай приходится отдельно описывать, но это мероприятие требует как минимум поддержки, опять же учитывает не все экзотические домены.
Сергей Протько: мде, все намного проще мы вебстудия и следим за своими клиентами чтоб не просрали домены, а проверить 1000 доменов это неделя работы, За эту неделю вы будите выставлять 20 счетов на 500 рублей. Что поверьте лучше автоматизировать, на "Легкий способ заработка?" это мягко говоря не тянет
Написано только что
WieFix:
1. Данные урлы обычтым 301 уже не сделаются поскольку они с гет запросами.
2. НЕЛЬЗЯ иметь два урла к одной странице, читайте требованя яндекс - количество урлов у страницы желательно 1 и очень нежелательно два.
3. Учитывая убогость данного урла он вообще странно выглядет, поскольку имеет опять же гет запрос, если это реальная страница то ей нужен реальнйы урл а не с гет запросами. Поскольку опять же рекомендации яндекс.
4. если у вас это фильтр или еще что-то то не понятно че вы паритесь этими урлами их всеравно включают в robots.txt disallow /?p=9902
5. Опишите более подробно задачу, возможно вы пытаетесь изобрести велосипед.
Возможно для решения вашей задачи есть куда более правельный способ.
6. Редирект может передавать статус 200 тобишь иметь доступ по второму урлу.
debian 8 тутнипричем, разницы в настройках возможно будут как сказал коллега
korotkin korotkin но скорее всего вы что-то делаете не так.
Ведь вы не с дебианом работаете а с nginx+apache следовательно сама ос тут особо не влияет
потому что даже контент менеджер может верстать страницы, что удешевляет работу, стандартизирует ее и делает очень дешевый и в купе с этим пристойный адаптивный вариант сайта под все устройства, а на слуху оно именно из-за этого
Ян Ко: собственно это я написал в верху. На самом деле у меня есть несколько серверо на centos штук 5. и все работают, Но по факту дебиан лучше, как то привычней мне syslog, структура папки apache 4 конфига php.ini и тд и тп, так же в стандартных репках часто отсутствуют банальные пакеты, только в 6 добавили htop и multitail приходилось до этого их компилить ручками.
В любом случае сервер можно держать на любом линуксе, но изначально разработка Дебиана велась для веб серверов, а центос для корпаративных сервисов. Собственно эта кореляция сохраняется и до сих пор.
Но повторюсь у меня есть сервера и на бсд и притензий к ним нет, вопрос толкьо в комфорте.