Есть ли технические причины тому, что у ноутбука с дисплеем 360Hz есть только режим 60 Hz и 360 Hz, но нет промежуточных?
Не знаю, у всех ли так производителей, но у Gigabyte в линейке "игровых" ноутбуков 2022 года (Aorus 17), доступно только два режима работы экрана: 60 Hz и 360 Hz.
Знаю о существовании программы CRU для создания кастомных режимов, но теряюсь от непонимания того, почему производитель сделал этот жёсткий лок именно на два режима 60 и 360 Hz, почему нет промежуточных?
И как вообще производители дисплеев (не только для ноутбуков) определяют, какие именно режимы поддерживаются дисплеем? Что вообще означает "поддержка" определённой частоты обновления, если мы говорим о промежуточных значениях между максимальной и минимальной частотой?
Короче, теоретический аспект интересен и если кто знает, просьба поделиться информацией. Но практический вопрос такой: Есть ли недостатки или риски (хардварные или софтварные проблемы) при создании кастомного разрешения через сторонний софт типа CRU, к примеру, 120, 100, 75 Hz на ноутбуке, который по умолчанию поддерживает только два режима 60 и 360 Hz? Чем это может быть чревато?
А зачем вам на встроенной матрице другие герцовки, отличные от предложенных?
Будете каждую неделю ее разбивать и искать оригинальную запчасть?
Что касаемо программных fps, частоты обновления кадрового буфера не зависят от герцовки, подаваемой на матрицу - частота кадров будет экстраполироваться на тот аппаратный режим, который доступен.
Рассчитываю сэкономить батарейку при работе не от сети. На 360 герцах ноут разряжается в два раза быстрее, чем на 60-ти, но на 60-ти работать невозможно, когда переключаешься с высокой частоты. Нужно хотя бы 100 Hz или около.
А про программные FPS не до конца понял, вы про тот факт что если экран 100 Герц то FPS например в полноэкранном приложении не будет 100 Герц, а будет больше или меньше? Это вроде как очевидно.. Или вы про какие-то более низкоуровневые вещи?
P.S. Про "разбивать" не совсем понял извините... Можете прояснить?
Понял, энергосбережение. А действительно есть кейс, когда в автономном состоянии нужна повышенная герцовка? Я понимаю, что когда активно используют видеокарту, то на автономность уже не смотрят, аккумулятор рассматривают как ИБП, чтобы ты мог просто добежать до розетки и подключить ноут на зарядку, пока видеокарта все не съела.
А про программные FPS не до конца понял
Что на монитор передается картинка 100 Гц, а программно смена кадров может гулять в любом диапазоне от 0 до 100, насколько хватает вычислительной мощи видеокарты.
Про "разбивать" не совсем понял извините... Можете прояснить?
Допустим, вы разбили матрицу на 360 Гц, принесли ноут в ремонт, а вам говорят, что точно такой же нет матрицы, можем поставить только 144 Гц, она по разъему подходит.
А необязательно активно использовать видеокарту: при работе с документами/редакторами кода, веб-браузинге разница между 60 и 100-120 Гц тоже ой как заметна. Так что да, кейс такой: нужно поработать пару часов автономно, но на 360 Герцах ноута хватает максимум на полтора до выключения. А на вырвиглазных (для меня) 60-ти - хватает на 3,5 но это реально неудобно и неприятно.
Хочется иметь что-то среднее.
Если заработает — программных не должно быть. Из аппаратных — только шум на определённых режимах/изображениях, но это уже вопрос качества питающей обвязки. Чаще такое бывает на настольных мониторах, чем на ноутах.
Просто прописывают список поддерживаемых режимов — в VGA на это пустили неиспользуемый штырь, где на ноутах, не знаю. Просто лень: или совместимые 60, или максимальные 360, на что нужны промежуточные?
Рассчитываю сэкономить батарейку при работе не от сети. На 360 герцах ноут разряжается в два раза быстрее, чем на 60-ти, но на 60-ти работать невозможно, когда переключаешься с высокой частоты. Нужно хотя бы 100 Hz или около.
Alexchexes, Аппаратно это устроено так: видяха даёт видеосигнал, а матрица его выводит, буферизируя по минимуму. Так что или матрица покажет, или не покажет, а так, чтобы показала, но были глюки — маловероятно.