Можно взять современные статьи и блоги. И просто посчитать % попаданий в слова 100Мб справочника. И потом автоматически отбросить те слова которые имели малый rate.
Здесь можно будет даже регулировать размер. Например отсеять 90Мб и оставить только самые популярные.
Muxauko, я исхожу из предположения что Федора все таки посчитала сумму. И 8+5.7 это и был желаемый размер свопа. А если кидать на локальный диск то уже без разницы там 5 будет или 14. Ну что за копейки торговаться?
Вот я-бы убрал оба. И сделал бы swap длиной в 16Gb на основной файловой системе как обычный файл.
В конце концов живем в 21 веке. И отдельный партишен под свап уже никому не нужен. Ну по крайней
мере перформанс issue уже давно никто не заводит. На файлах все прекрасно и быстро работает.
А потом докупишь еще памяти и еще растянешь больше файл.
Adamos, с моей точки зрения - это авантюра. Если считать цену разработки - против вёрстки текста, то проще посадить бухгалтершу, заплатить ей чуть больше и она за пару вечеров набъет все таблицы вручную.
Тоесть
слово|синоним1,синоним2
равносильно тому что