Задайте пул в память для иннодб и оно будет читать на скорости 100 мегабайт в секунду, только сегодня видел это на одной виртуалке с толстым клиентом.
Я бы сказал что монго оно не столько производительнее сколько лучше масштабируется и шардируется из коробки.
Не тупой совет, вы не вникли в матчасть, никак это не укоротит его жизнь или емкость, в акуме стоит контроллер, который не даст разрядится до 0 и даже до 3 процентов не даст.
Ну это то боян, проблема в том что я скажем не знаю что у меня скушало ночью 10 гигов и в графической интерпретации я как то более просто могу это предположить.
Это не тот вариант когда мне точно надо найти какие то каталоги больше какого то объема.
Ну есть у вас 100 каталогов с большой вложенностью с большим количеством файлов и большими объемами, как понять как распределено место быстро?
Один du выполняется по часу
В простых ситуациях конечно сделал du отсортировал sort -n и погнал глубже, а в сложных графика рулит.