luaPower, подожди-подожди. Зачем я буду брать следующее слово? По какому закону или по какой формуле? Автор поставил задачу о случайности. Обычно имеется в виду линейное распределение вероятностей. Это означает что все слова - равновероятны.
Мне тут пока предлагают алгоритмы которые просто нарушают линейную вероятность.
Интересно что никому в голову не пришло просто в хеш-мапу это все загрузить. И решить проблему.
Накладные можно пообсуждать отдельно но в конце концов у любой задачи есть цена разработки
и цена эксплуатации
Может эта задача - одноразовая. Или запускается 1 раз в квартал. Или просто - временное решение.
xotkot, чел я этой теме в жизни посвятил не более 30 минут когда Оракл настраивал.
Почитал install guide. Там тупо табличка. Взял рекомендации из таблички. Вбил. И все тут.
Всю остальную жизнь меня местоположение свопа и его размер волновал также как и индейцы волновали шерифа
Можно взять современные статьи и блоги. И просто посчитать % попаданий в слова 100Мб справочника. И потом автоматически отбросить те слова которые имели малый rate.
Здесь можно будет даже регулировать размер. Например отсеять 90Мб и оставить только самые популярные.
Muxauko, я исхожу из предположения что Федора все таки посчитала сумму. И 8+5.7 это и был желаемый размер свопа. А если кидать на локальный диск то уже без разницы там 5 будет или 14. Ну что за копейки торговаться?
Вот я-бы убрал оба. И сделал бы swap длиной в 16Gb на основной файловой системе как обычный файл.
В конце концов живем в 21 веке. И отдельный партишен под свап уже никому не нужен. Ну по крайней
мере перформанс issue уже давно никто не заводит. На файлах все прекрасно и быстро работает.
А потом докупишь еще памяти и еще растянешь больше файл.
Мне тут пока предлагают алгоритмы которые просто нарушают линейную вероятность.