Встречал таблицы сравнений видеокарт, где конкретным моделям сопоставляли разрешение экрана, например, 4060 fullhd, 4070 2k.
Но ведь можно снизить разрешение, и кадров станет больше? Обычно так и делают на старых картах. Соответственно берёшь мощную карту, она может дольше использоваться, хотя и со сниженным разрешением.
Или есть ещё какая-то взаимосвязь между характеристиками видеокарт и разрешением монитора?
Хотите пару приколов? Из жизни.
Был, как-то, у меня комп Pent. 1, с видюхой Cirrus Logic, память которой составляла 2 Мб. Подключавшийся, к еще более древнючему, ЭЛТ монитору от комплекта Intel 286-го. Диагональю в 14 дюймов или около того. Хорошо хоть цветной. И с качественной графикой (спасибо дельтавидной теневой маске (дырчатой) кинескопа)! Максимальное разрешение, которое выдавала видюха:800x600. А вот монитор - только 640x480. При 60 Гц везде - вроде бы.
Так вот, какое-то время я и сидел за этим старым монитором. Глаза в кучу. %) Пока не купил новый, ЖК-шный. Бутылки сдал. :D Вот он уже держал 1280x1024 - максимум. Ну и ничего, подключил монитор ко Пню и спокойно юзал. Надо отметить, что оба они, в этой связке, прослужили мне многие года, на совесть. :)
Замечено что, слабый комп, на большем разрешении, не всегда мог потянуть картинку, тормозил более обычного. Это если хоть какой-то выбор разрешения был. Что не всегда возможно.
А вот и второй прикол.
Так же, ради интереса, а иногда и реальной работы, на этом же Пне ставилась WinXP. Тормозила, но работала-таки. На 166 МГц (переключенных на 200 МГц) ЦП и 64 Мб ОЗУ. Но, всеже, 98-я летала! Ах, сказка! :D Как говорится: либо красиво и современно, либо быстро.
А в современных реалиях, то в чем проблема? Сопоставить две цифры, чтобы они были равны. "Я так думаю!". :)
Раньше была мода, замуты разные: все гнались за герцами (75 - безопасно для глаз, 120 - ваще супер!), за меньшим временем отклика матрицы монитора, за плоским экраном (ЭЛТ). Сейчас за разрешением гонятся. За типом матрицы гонятся. За углами обзора - иногда гонятся. Вот не знаю, положа руку на сердце, у некоторых людей как было неидеальное зрение, так оно и осталось. Какие бы мониторы (экраны) не приходилось использовать по жизни.
Иной раз да, при повышении разрешения, герцовость может снизится. Т. к. поддерживается не на всех режимах.
Ко всему этому, вспоминаются лекции по предмету "телевидение" (технический аспект), о том, что частоту изображений свыше 24-25 кадров/с человеческий глаз уже не способен различить. Такие дела.
Игорь, да уж, много нюансов, а некоторые весьма надуманные. Лично не сталкивался с недостатком 60 кадров, очень плавно. Но вот совершенно точно знаю, что мне 60 Гц МОНИТОР выдаёт в некоторых играх разрыв ровно по середине экрана (без Vsync). Получается, медленное обновление экрана?
Кстати, ЭЛТ ведь именно мигали, видел такие, ими действительно тяжело пользоваться. Вот ЖК - вот это прелесть (хотя тоже не все, встречал жалобы на мигания монитора с плохими подсветками с ШИМ)
Наверное так и есть.
Как написали в комментарии к вопросу, сейчас влияет какая-либо «мода», оттуда, видимо, и такие таблицы сопоставления. Ещё и тренды «раскрывателей». Почитаешь это всё и уже сам начинаешь сомневаться в собственном опыте)