по результатам отпишусь.да, интересно, получится или нет.
как же муторно будет такой бинарник собирать.
const body = new Blob(['some text', file, 'some text 2', ...]);
const enc = new TextEncoder();
const buffer = enc.encode('some text'); // Uint8Array
Вот только "Переколбасить" такой объём данных для каждого региона РФ клиенте, не правильно.
Но вот незадача, они не в нужном формате. У гугловских полигонов, нужно передавать объект, а тут массивы.эта "незадача" выглядит как довольно простенькая задачка по программированию уровня средней школы. Переколбасить один формат в другой.
то есть сортировки вставкой и выбором должны выполняться примерно за одно и то же время на одном и том же массивепочему?
Сложность алгоритма составляет O(n * log(log (n))) операций при составлении таблицы простых чисел до n
При этом он будет скачан лишь один раз, а при последующих перезагрузках, он будет передаваться из кеша. При генерации, каждый раз при перезагрузке страницы, или открытия новой, будет выполняться поиск всех чисел заново.учитывая, что он генерится за доли секунды, вряд ли считывание из кэша (то есть с диска) будет намного быстрее. К тому же тут ещё затраты на парсинг раздутого html/js, что тоже не бесплатно.
таймер, хоть и будучи отдельным пакетом, присасывался к redux стору и добавлял туда значение (что странно, но т.к. это часть приложения, просто в отдельном пакете, то не мудрено)не мудрено, потому что редукс провоцирует неокрепшие умы к такому стилю кодинга.