Почему видеокарта потребляет разное кол-во ватт в играх, при максимальной нагрузке?
Карта загружена во всех трех играх максимально, но, в одной из трех игр, потребление идет не 210-220, а все 260ватт.
Настройки везде на ультра, лок по фпс нет, никакого апскейла тоже не стоит.
Как это работает вообще? Причем, 265ватт это максимально потребляемая мощность видеокарты, и как-бы тут все нормально. Меня больше волнует, почему у первых двух игр, она потребляет меньше при той же нагрузке?
Дрова последние стоят.
Частоты не сбрасывает, температура в пределах нормы.
Причем, та же проблема остается и при андервольте, только значения чуть меньше.
UPD2:
Сразу оговорюсь, две первые игры - репаки с торрентов.
Запустил сейчас еще пару игр тяжелых со стима, карта пашет на все 265ватт.
Репак что-ли ограничивает потребление? Почему тогда нагрузка на ГПУ не режется?
А вы каким оборудованием и по какой методике проводили замеры потребления? Да и игры все разные и по-разному будут загружать видеокарту - там потребление энергии всегда будет скакать в приличном дапазоне, поэтому для генерации нагрузки следует использовать специальные синтетические тесты, которые могут загрузить на все 100%, а измерять нагрузку по соответствующей методике.
Не волнуйтесь. Загрузка ГПУ это чисто синтетический показатель. Полностью загрузить все блоки может разве что майнинг. А так все зависит от детализации сцены, качества кода, пропускной способности памяти и все это может по разному влиять на энергопотребление