Задать вопрос
@Chelovec

В чем реальная причина того, что 144 гц монитор будет стоить дороже аналога с 60 гц?

Почему если подать на обычный fhd 60 гц монитор сигнал fhd 90 гц, то появится окошко "не оптимальный режим" и никакого изображения на экране не будет? Чем, кроме пропускной способности кабеля и ограничений самой видеокарты может быть вызван отказ от работы у 60 гц монитора в режиме fhd 90 гц? Почему за поддержку монитором высокой частоты обновления приходится переплачивать? Монитор ведь не видеокарта, ему не надо ничего обрабатывать, он просто принимает сигнал от видеокарты и всё.
  • Вопрос задан
  • 179 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
15432
@15432
Системный программист ^_^
не, ну если у вас аналоговый ЭЛТ VGA монитор, то действительно, можете просто выбрать 90, 120, 240 Гц и он (чаще всего) схавает.

Но сейчас в мире больше распространены цифровые ЖК и OLED мониторы, которые не просто "выводят сигнал на экран", а имеют довольно сложную электронику внутри, этот сигнал обрабатывающий.

И им для поддержки большей частоты обновления нужно:

- пиксели с низким временем отклика, чтобы переключались без шлейфа
- высокоскоростные компоненты для переключения пикселей, умеющие работать как на 60, так и на 90 Гц
- более мощная электроника, способная декодировать больше данных по HDMI за то же время

всё это стоит денег, плюс поскольку основной массе хватает 60 Гц, компоненты для высокоскоростных мониторов банально более дорогие (премиум класса)
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы