Задать вопрос
@Iv_and_S

Сколько это много данных для Excel?

Какие есть метрики оценки файлов Excel на "это для экселя уже много".
Есть ли какая то официальная документация где написано типа "если в экселе 100500 ячеек заполнено это уже ограничение системы" или в Мб
Суть в том что есть годами сложившаяся традиция решения определенных задач в Excel.
Некоторые файлы превратились в "навороченный софт" из кучи взаимосвязей, данных, графиков и VBA.
В некоторых случаях сильно "тормозят" что не удивительно.

Однако не понятно, каким образом вычислить из чего проблема.
из формул/связей или за большого количества данных.

вообщем тут вероятно даже три вопроса:
1. точные метрики и как мерять что "эта задача уже не для Эксель".
2. как оценить влияние тех или иных сущностей (формулы , графики) на общую производительсть файла.
3. где проходит граница между Excel и БД/Python/R
  • Вопрос задан
  • 619 просмотров
Подписаться 2 Средний 1 комментарий
Пригласить эксперта
Ответы на вопрос 3
saboteur_kiev
@saboteur_kiev
software engineer
Суть в том что есть годами сложившаяся традиция решения определенных задач в Excel.

С годами версии экселя меняются. Когда-то давно был предел в 65 тысяч строк. Когда-то давно был предел в 1-5 мегабайт на файл.

Если брать просто данные, то эксель довольно неплохо справляется с большими объемами, там скорее упирается в оперативку на конкретном компе.
Но если начинаете оформлять, то я видел как довольно небольшой файл, но с оформлением в каждой ячейке вынуждают эксель зависать.

Много связей с внешними файлами - плохо. Эксель все-таки не база данных, и обновление из разных файлов будет подтормаживать.

Если у вас много функционала, возможно имеет смысл подумать о каком-то приложении, может быть с базой, но можно и напополам.
Тем более что с Экселем напрямую могут работать многие библиотеки.
Ответ написан
firedragon
@firedragon
Не джун-мидл-сеньор, а трус-балбес-бывалый.
Я обычно смотрю инструкцию
1.
https://support.office.com/ru-ru/article/%D1%82%D0...

2. гугл excel profiler
3. У вас видимо уже.
Ответ написан
@rostislav-zp
я на практике сталкивался с таким-была выгрузка из двух баз данных.нужно было сделать нечеткий текстовый поиск и объеденить по ключевому столбцу в одну таблицу.использовал fuzzy lookup.ексель сравнивал 90тыс строк из одной таблицы с 300 строк из другой.на больших объемах крашился.это занимало по 40 минут на core i7 при учете того,что ексель нагружает каждое ядро только на 25%.результаты многократно повторял и склеивал в итоговую таблицу.сейчас я уже знаю,что такое pover pivot и решил бы эту задачу правильно и быстрее.но тогда вариантов не было.сроки поджимали.на питоне это можно было идеально реализовать,но человек,который взялся за решение задачи-провалил все сроки и так ничего и не сделал.пока искал решение ускорения расчетов в екселе,чего только не находил.даже cuda ядра с видеокарты люди подключают(но дальше прототипа дело не пошло).вообще работая с olap кубами и pover pivot+ pover query+pover bi- могу сказать,что до ограничений я так и не дошел.ютуб творит чудеса в плане обучения.посмотрите каналы станислава салостея и николая павлова.там информаци более чем достаточно.а если дальше копать,то я например питон и node red использую.
и как сказали выше-нужно быть внимательным с условным форматированием.по этому вопросу вот отличное решение https://www.youtube.com/watch?v=sc9xyMl1uu8&list=P...
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы