Было: driver «nv»
425-[ 58.043] (II) NV(0): Modeline "320x175"x85.3 15.75 320 336 368 416 175 191 192 222 doublescan +hsync -vsync (37.9 kHz)<br/>
...<br/>
426:[ 58.043] (==) NV(0): DPI set to (96, 96)<br/>
Стало: driver «nvidia»,
[ 25650.812] (--) NVIDIA(0): DPI set to (123, 121); computed from "UseEdidDpi" X config
Для чего, вообще, исторически предполагается выбирать DPI в зависимости от того, какая строчка прописана в конфиге иксов для выбора видеодрайвера?
На основании каких исторических причин инженеры NVIDIA сочли необходимым менять DPI в зависимости от подключенных устройств? (Как отключить сие чудо и выставить fixed dpi — нашел на
вики Arch)
По идее, вряд ли к карточке тех времен, в которые ввели эту опцию, можно было подключить что-то хуже VGA-монитора и лучше QWXGA-панели. Так нет же! Что за несусветное DPI=123 для CRT (в EDID написано) монитора?
Неужто эти люди на видеостену из старых ega-мониторов медитировали при написании?