К слову добавлю, что на одном очень большом проекте я использовал подобный кэш, тогда массив данных скидывался прямо в php файлы через var_export и потом подключался простым include. Php файлы при этом засасывались в акселератор и накладные расходы были крайне малыми, но эта схема работает когда структура этих данных меняется крайне редко, раз в месяц/раз в год.
@MrGruffi сложности будут увеличиваться пропорционально размеру данных которые вы храните. Пока у вас одна новость и 5 комментариев к ней все окей. Суть файлов такова, что вам потребуется сначала загружать их в память, а потом делать из них выборки самостоятельно. В один момент данных станет больше чем памяти и все умрет.
Дисковые операции для сайта - самые дорогие и на них будет тратиться огромное кол-во ресурсов.
Добавим к этому что это ужасный велосипед который имеет право на жизнь только в целях экспериментов.
Как вывод хочу сказать, что если вы не понимаете почему это плохо, то, наверно, вы должны попробовать это сделать и научиться на своих ошибках.
@dth а, понял, странный подход на самом деле. Из первого что приходит на ум, попробовать разделить конфиг nginx на два сервера, первый сделать реверсивным к прямому и попробовать поднять авторизацию на нем, хотя не уверен что такая связка поможет.
Попробуйте в рассылке спросить. forum.nginx.org
@dth Вы написали что она не работает, про не подходит упоминаний нету. Опишите ситуацию более подробно. Что стоит за Nginx, что пробовали сделать и что именно не получается.