Ziptar, он так должен, это нормально.
И не так уж сильно отжирает как я думал читая мануалы, да и память сейчас дешевая, не коллекционировать же ее, пусть работает.
У меня при 8 терабайтах данных, при прям совсем пиковых нагрузках, когда запись упирается прям в предел производительности дисков и сотни гиг мелкими файлами копируются - ну гига 4 ну 5 максимум может отожрать, но это редко бывает, при штатных нагрузках гига 2-3-4 примерно жрет этот кэш не больше.
Я машинке выдал 8 гиг (как рекомендуют в мануалах типа на терабайт давать гиг оперативки с запасом), очень редко когда эта машинка реально жрет больше половины...
В текущих серверах, это ни о чем.
Ну во первых , какая твоя твоя позиция в случае если твои вопросы будут задавать твои клиенты, как отнесешься к тому что у тебя твои клиенты будут воровать и не платить, просто по форумам выяснять вопросы, как бы так у тебя украсть чтобы он не узнал кто)))
Во вторых, может никак, а может узнают особенно если будет проект популярный - ты готов эти риски нести ?
Ты готов потерять популярный проект, только потому что выбрал украсть для него основу, а не взять бесплатную или не купить например ?
Drno, очень дуратский совет если честно в данном конкретном случае.
Проблемы с любой системой могут быть.
И что там ты не соберёшь что там не соберёшь... С абсолютно одинаковой вероятностью.
ZFS именно при простом хранении данных даёт огромные преимущества.
Ziptar, уже есть такие любители таких чудесь...
Потом приходится долго искать почему некоторые программы или дрова которые не знают про ip6 не работают...
На дешевом домашнем оборудовании, из коробки без кастомных прошивок - чаще всего невозможно. ( на микротике каком-нить можно, но не тремя кнопками, маршруты придется ручками писать )
antdantd, ну не знаю, лет 10 назад как были, php, wordpress, laravel, bitrix....что там ещё было ... большая часть этого до сих пор используется...
Так и сейчас.
Все вроде в одном ключе...
А халявы не в одном месте точно не будет. Везде нужно постоянно напрягать мозг.
Drno, ну вы реально когда сеточку из 500-1000 юзеров в какой нить крупной компании на эти поделки переведете.
Напишите мне, я бы посмотрел на то как это работает вживую и даже денег бы за консультации заплатил(но видя перед глазами реальный кейс работающий).
А пока это просто теоретическая теория, не подтвержденная реальностью.
В каких то очень ограниченных случаях этого может быть достаточно(когда там 5 юзеров например в ларьке сидит), но ... если бы этого было достаточно в нормальном корпоративном мире - то всем известный Билли давно бы разорился и умер в нищете
antdantd, так если ты в веб работал, почему бы и не работать дальше примерно в том же ключе.
Очень много же направлений куда копать, несмотря на то, что сейчас происходит в мире... Веб не умер.
И не так уж сильно отжирает как я думал читая мануалы, да и память сейчас дешевая, не коллекционировать же ее, пусть работает.
У меня при 8 терабайтах данных, при прям совсем пиковых нагрузках, когда запись упирается прям в предел производительности дисков и сотни гиг мелкими файлами копируются - ну гига 4 ну 5 максимум может отожрать, но это редко бывает, при штатных нагрузках гига 2-3-4 примерно жрет этот кэш не больше.
Я машинке выдал 8 гиг (как рекомендуют в мануалах типа на терабайт давать гиг оперативки с запасом), очень редко когда эта машинка реально жрет больше половины...
В текущих серверах, это ни о чем.