Стоит понять разницу между FPS игры (программы, видео, чего угодно) и частотой обновления картинки устройством отображения этой самой картинки. И всё встанет на свои места ;).
Для понимания, процессор+видеокарта в связке просчитали столько-то кадров и могут выдавать их порциями по те самые 144 штуки в секунду, это и есть количество "кадров" в секуду aka FPS. Но картинка монитора может обновляться (самим монитором), допустим, с частотой только 120 Герц. При этом, если не включена "синхронизация кадров" (vSync в игре, есть и другие технологии, уже в самих мониторах), может произойти "разрыв кадра" (забыл, как там по другому обзывают этот как бы "баг"), когда верхняя половина была из одного кадра игры, а нижняя уже из второго.
То что железо может выдавать (подготавливать) кадров больше мониторных, очень даже хорошо, значит "мощности" хватает. Но смысла выводить (и даже не совсем выводить) это на экран, нет никакого, только лишние артефакты (хотя давно не видел таких).
С другой стороны, если играешь в разные игры с разным FPS, можно ставить везде одинаковое ограничение, допустим, те же 60 Гц и вертикальную синхронизацию, и не мучаться, и не забивать голову - одна выдаёт 140, другая не выдает...