Здравствуйте! Скажу заранее я не эксперт по железу и возможно несу чушь. Мне не понятно насколько точно показывает внесистемная единица Flops используемая для измерения производительности компьютеров, реальную мощность в видеоиграх? К примеру gtx 1060 6gb имеет 4.3 Tflops или 4 375 Gflops, а gtx 1650 super 4.4 Tflops или 4416 Gflops. Разница всего в 1% и на бумаге они должны показывать почти одинаковые результаты. Но по тестам gtx 1650 super опережает соперника в среднем на 10% больше! На уровне железа они почти одинаковые за исключением более быстрой памяти у gtx 1650 super. Может дело в том что на программном уровне 1650 super лучше? Ведь она новее на 3 года и имеет другую архитектуру. В общем хотелось бы узнать существует ли способ высчитать реальную мощность видеокарты в игровых приложениях? Как мне видится Flops в этом плане не очень точен.