Оптимальная обработка на php содержимого большого количества файлов?
Дано: десятки тысяч файлов разного размера (несколько мб) html формата, содержимое которых нужно обработать (с помощью preg_replact вытащить некоторые данные).
Топорный способ, который пробую, забивает процессор на 99,9% и память на 650-700 MiB:
Задаю массив со списком файлов и прохожусь циклом. В цикле пробовал целиком содержимое вытаскивать с помощью file_get_contents и тут же обрабатывать. Также пробовал вместо file_get_contents -> построчное чтение fgets, однако заметного результата так и не добился.
Приоритет в меньшей нагрузке сервера, время операции не столь важна. Подскажите пожалуйста алгоритм обработки такого большого кол-ва файлов с оптимальной нагрузкой.
ТыжСисАдмин, будет работать, если все будут соблюдать правила сервиса, чтобы те, кто согласится помочь, не лазили по комментариям в поисках проблемного кода.
Дмитрий, Ну фиг его, я вечно палкой тыкаю на эту тему и фиг кто делет а если и делает то впихивает экрана три лога и даже без тега "код" :)
Вот если-бы товарищ moderator несчадно запихивал такие вопрос в черновички :D