Как стримить с помощью WebRTC очередь JPG-ов и есть ли в этом смысл?
Всем привет!
Столкнулся с рабочей задачей формировать таймлапс видео-стрим из jpg кадров, делающихся esp32 камерой с определенным интервалом. Первое что пришло на ум - WebRTC. С этой технологией и сопутствующими протоколами поверхностно ознакомился и нашел среди спек RTP payload type = 26 (JPEG Compressed Video over RTP), что навело на мысль о возможности стриминга видео по-кадрово, подгружая новые JPG-и и формируя RTP пакеты. Вопрос: целесообразно ли это? Или лучше создавать видео из jpeg-ов на лету с помощью ffmpeg и стримить его? Последний вариант рассматривается со скрипом, ибо ffmpeg отжирает много ресурсов, которых не так много.
На бэкенде используется pion – webrtc фреймворк, написанный на golang.
Если говорить про rtc то используй mjpeg, кадры состоят из jpeg, проигрывается везде, наверное реализовать на слабом процессоре не сложно,так как фактически нужно сформировать правильный заголовок и правильно компоновать готовые jpeg.
цель не ясна, исходить нужно из конечной цели а не особенностей ее реализации
Спасибо, присмотрюсь к mjpeg-у
конечная цель – формировать управляемый (диапазон времени, скорость) видео стрим из набора jpg-ов, а само управление, видимо, через DataChannel будет, еще не пробовал его