Вечная нехватка ОЗУ, но при достаточном ее наличии в win 10 | как это исправить?
Вечная нехватка ОЗУ, но при достаточном ее наличии. К примеру при работе с несколькими программами: в браузере сыплятся ошибки и закрываются вкладки, мол не хватает памяти, при этом свободно еще 4 гб (12/16 где то). При попытке собрать что то тяжелое, например ue4 с гитхаба, так же шлет кучу ошибок "заполнена куча бла бла бла". Иногда когда запекаю свет в том же ue4, опять же, ошибки связанная с нехваткой ОЗУ. Похоже это что то на уровне системы, но в чем именно дело? Никто не сталкивался?
А с виртуальной памятью что? Как я заметил, даже если хватает свободной физической памяти, но не хватает виртуальной - Windows всё равно не даст выделить блок памяти.
Кирилл Павлов, я имею ввиду как в целом картина по заполненности. Так-то виртуальная формируется из физической + файл подкачки, причём некоторые выделенные блоки там могут вообще нигде не содержаться (если блок был выделен, но не был ни разу использован).
kalapanga, это что ещё за ересь? Можно, конечно, ин а автомате сидеть, но с каких пор установка фиксированного объёма файла подкачки является плохой идеей?
WbICHA, иногда софт глючит, иногда просто невозможно предсказать необходимый объем памяти.
У меня как-то раз звук при просчете видеофайла разжался в некомпресс, а там его на 2 часа... Сожрало всю оперативу и ещё 50 гигов сверху.
Подкачка как раз для таких случаев и нужна. Зачем ее ограничивать - я не понимаю, только если системный диск какого-то неадекватного объема...
nidalee, ты бы ещё сервера в пример привёл. Для работы со звуком и видео нужно много памяти, но 99.9% пользователей с таким объёмом никогда не столкнутся.
Зачем ее ограничивать
Для скорости. Если фиксировать минимальный и максимальный её размер на одном значении, то система не будет каждый раз думать сколько её надо резервировать место, потому что оно уже размечено.
с каких пор установка фиксированного объёма файла подкачки является плохой идеей?
Идея стала плохой в тот момент, когда в настройку полез ламер, возомнивший, что в механизмах распределения памяти он понимает больше чем сами разработчики ОС.
Если фиксировать минимальный и максимальный её размер на одном значении, то система не будет каждый раз думать сколько её надо резервировать место, потому что оно уже размечено.
Что-то я очень сомневаюсь, что время, которое система тратит на выделение себе дополнительной памяти, можно ощутить. Это наверняка прозрачный для пользователя и софта процесс, никак не влияющий на производительность. И бесконечно лучше простого вылета с oom.
но 99.9% пользователей с таким объёмом никогда не столкнутся.
Поэтому оно стоит на автомате. Вопрос ведь в другом - зачем ограничивать даже рядовому пользователю, если только не после страшилок из начала нулевых про медленный swap, который используется "даже когда не надо" и прочие "да у тебя ssd сдохнет" из начала 2010-х.