Можно ли без маркеров измерять фактический FPS видео?
Вопрос больше теоретический. Можно ли как-то без маркеров и референсов измерять фактическое FPS видео, при том что это запись экрана 60 кадров, но фактическое +- 30. Может ли эта библиотека как-то считать не по кол-ву кадров, а по их изменениям?
Я могу ошибаться но с точки зрения современных видео-кодеков понятие кадр-в-секунду уже не существует. Грубо говоря кодек может фиксировать изменения с частотой 60Гц но алгоритмы сжатия не гарантируют что именно ПОЛНЫЙ кадр (все пиксели будут обновлены). За полседние лет 10 вообще создатели видео-кодеков - молодцы - прошли такой путь развития. Они научились детектировать панорамирование и очень умным образом кодировать только те фрагменты кадра которые интересны нашему глазу.
В качестве доказательства моих слов. Я предлагаю вам сгенерировать sequence картинок где есть рандомый цветной шум из пикселов и сжать его vdub или ffmpeg с нужной частотой и хорошим сжатием и потом посмотрите по кадрам что реально меняется и что сильно БЛУРИТСЯ и ГДЕ обновляется.
Это очень интересное замечание именно про рендирование, тк да, сейчас во многом изображения меняются не покадрово, а обновляются сектора. Но тогда встречный вопрос, какую метрику можно использовать для частоты изменения, когда прямо видны рывки привычные нам для низкого обновления кадра
JRBRO, никакую. Технические метрики уже не подходят.
Нужна человеческая метрика. Берите подопытных. Садите их перед монитором. И пускай они голосованием решают какое видео ПРИЯТНО и ГЛАДКО для их восприятия. Короче - сплошная цвето-физология. И YUV и Фурье и умные фильтры - все это человеческие и когнитивные технологии.
Грубо говоря картика которую мы видим после сжатия сырого видео - это фейк. Который тем не менне приятен глазу.