Добрый вечер.
Вопрос состоит в следующем:
есть необходимость обрабатывать большое количество данных на протяжении длительного времени и выдирая некоторую информацию, записывать ее в документы json. Возможности хранить все данные в памяти, а потом записать один раз всю информацию, нет, так как данных чудовищно много. Также хотелось бы обойтись без буфера - какого либо текстового файла, в который записывать информацию, а потом считывать снова и записывать уже в Json. Еще один подводный камень - json документы необходимо заменять на новые при приближении к 5 мб, т.е. дело не ограничивается одним экземпляром.
Какое наиболее элегантное решение кто-либо мог бы подсказать в сложившейся ситуации?