Задать вопрос
@PerseforeComplete

Почему в некоторых мониторах 144 Гц?

Чем больше герц, тем меньше время отклика. Однако, чем руководствовались люди, когда решили сделать распространённую частоту 144 Гц? Почему именно 144, а не 145 или 140? Есть ли вообще какие-то обоснованные соображения почему именно это число?
  • Вопрос задан
  • 601 просмотр
Подписаться 1 Простой 2 комментария
Пригласить эксперта
Ответы на вопрос 3
@rPman
https://hi-news.ru/computers/pochemu-igrovye-monit...
144 — это 24 умноженное на 6. Все текущие герцовки дисплеев делятся на 24: 120 Гц, 144 Гц, 240 Гц, 360 Гц.
Ответ написан
nidalee
@nidalee
Давайте я чуть-чуть смуту рассеять постараюсь:
Классические варианты частоты кадров, это 24 (кино), 25 (PAL progressive), 30 (NTSC progressive).
Это "первоисточники", частоты кадров, принятые в бородатые годы как стандарт на заре становления телевидения и кино.
Позже, для совместимости, телевизионщики добавили 23,976 и 29,97.
С появлением цвета в кино, появилась частота 23,976. Без углубления в технические детали, именно эта разница между 24 и 23,976 "освободила место под цвет".
Из 30 же сделали 29,97 для того, чтобы бороться с артефактами при трансляции цветного изображения на ч\б телевизоры.

А теперь мы уже можем проследить появление большинства других вариантов:
У нас уже есть 23,976, 24, 25, 29,97, 30.
Добавляем 48, 50, 59,94, 60.
48 - это опять же киношники (но у них 48 не прижилось). 24*2. Поэтому на мониторах такое (обычно) никто не ставит.
50 - это осовремененный 25. Опять же, взяли частоту старого формата и удвоили. Аналогично с 60. Ему даже старое легаси в лице 29,97 отскейлили до 59,94.
Дробные фреймрейты - технические, на ПК использовались по сути только 30, 60 и 75 (ранние ЖК). Ну 50 вроде было популярно на ЭЛТ одно время, но тут меня память может обманывать.

С фреймрейтами по 60 включительно разобрались.
А с этого момента в игру вступают маркетологи. Просыпаются, так сказать.
Из всего выше 60 официально стандартизированы "серьезными ребятами" (той же тусовкой, что придумало все до 60) только 100, 119.88 и 120 (все стандартом ITU-R BT.2020).

Полный список всего, что не является писькомерством, выглядит так:
120, 119.88, 100, 60, 59.94, 50, 30, 29.97, 25, 24, 23.976.
Несложно заметить, что все эти варианты получаются простым умножением какого-то из меньших на 2.

А вот остальные... Остальные - это просто соревнование производителей мониторов: у кого фреймрейт длиннее больше.
Продать 144 - проще, он ведь круче 120 - цифра больше! А чего уж говорить про 240? 360?

Хочу отдельно заметить разве что то, что если вы собираетесь на мониторе (почему-то) смотреть фильмы (которые почти все - в 24 FPS) - выбирать монитор лучше из тех, что поддерживают кратную 24 частоту кадров. Особые ценители (сродни аудиофилам с прогревом кабелей) предпочитают вообще частоту обновления монитора подгонять под частоту контента, который они смотрят. Но пока частота кратна 24 (120, 144) - этим можно пренебречь.

Ну и выше 60 кадров в секунду практически никто не снимает. Профессионально, насколько мне известно, вообще никто, хотя железо позволяет. Поэтому все странные частоты кадров выше 60 - сугубо компьютерные, и по большей части производителям какого-либо телеком-оборудования не интересны, потому и не стандартизированы.
А производители мониторов предпочитают сертифицировать всякое говно, которое помогает их мониторы продавать. Например, VESA DisplayHDR. Которая позволяет на коробку с монитором приклеить наклейки "HDR", хотя он не поддерживает и 50% требуемой яркости (HDR-400 на 400 нит вместо 1000) для цветового пространства, которое по идее должен показывать.
Ответ написан
Комментировать
leahch
@leahch
3D специалист. Dолго, Dорого, Dерьмово.
Просто в компухтерной технике принято делать умножители и делители кратные двойке.
Взяв стандартную частоту для кинематографа в 24 кадра в секунду и умножив на 6, получим искомое.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы