@miha5418

Как сделать чтобы было быстрее?

У меня есть Массив на 500 записей, и файл в нём таких записей 1 000 000.
Мне не нужно вставлять в файл дубликаты.
Я могу прочитать все записи из файла в HashSet и если в массиве есть те которые уже есть в Set, удалить их из массива и оставшиеся вставить в файл.
Либо могу проверять каждый элемент массива напрямую в файле, и удалять дубликаты.

Что должно быть быстрее?
  • Вопрос задан
  • 117 просмотров
Пригласить эксперта
Ответы на вопрос 1
zagayevskiy
@zagayevskiy Куратор тега Java
Android developer at Yandex
Использовать БД.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
от 350 000 до 400 000 ₽
ОТП Банк Москва
от 240 000 до 270 000 ₽
HighTeam Нижний Новгород
от 120 000 до 200 000 ₽