JSON размером в 1ГБ, как правильно распределить нагрузку при удалении из него элементов?
Добрый день. Имеется JSON, в котором 900 000 элементов, размер 1,2 ГБ.
Что нужно: удалить из каждого элемента несколько значений.
Вопрос: как правильно распределить нагрузку, чтобы и сервер не упал (на виртуальном хостинге) и получилось максимально быстро?
Несколько вариантов:
1) Разбить на части-файлы по 20 000 элементов (долго).
2) Через array_slice устанавливать каждый раз интервалы (сомнительно как-то, есть подозрение, что сервер упадет). Плюс открытие файла на 1.2ГБ каждый проход будет требовать много производительности.
Какие еще есть? Спасибо!
UPD: а если на своем компе через ОпенСервер запустить? Там есть лимиты или это от мощности компа будет зависить?