Нужно через socket.io передавать трансляцию того, что происходит на мониторе. Могу считать все пиксели с помощью robot.js и передать массивом, а потом уже обработать на клиенте, или же лучше использовать ffmpeg, получить изображение и передать его в сжатом формате? Думаю что считывать каждый пиксель с монитора будет долго, плюс на клиенте еще тратить ресурсы для обработки массива пикселей в фото и еще сделать трансляцию видео из этого будет сложновато, поскольку не шарю в даном вопросе, но и думаю что освоение ffmpeg отнимет прилично времени, поскольку я только кадры из фото вырезать умею на нем. Какой путь будет более оптимизированным и лучшим?
Через Robot.js получается очень долго. Я получаю буфер с каждого скрина, каждый весит (1920х1080) по 8 мб. Это очень много. Приходится сжимать и потом на клиенте обрабатывать, чтобы положить в канвас. Думаю можно сделать проще и лучше через ffmpeg, но не понимаю как. Видео можно записать в папку, но не передавать как стрим (пока что только такое нашел) Можно ли записывать в оперативку и отлавливать части видео ffmpeg для передачи через сокеты?