Задать вопрос
ArtAnd
@ArtAnd
Архитектор

Чем и как можно осуществить круглосуточную бесперебойную видеозапись страниц некоего сайта (подробнее в описании)?

Здравствуйте, спецы!

Требуется решение такой задачи:
Имеется некий сайт, на 2х страницах которого постоянно меняется некая нужная нам информация (не видеопоток).
Нужно записывать всё происходящее на этих страницах сайта (не обязательно весь экран, по сути нужна лишь конкретная область, занимающая примерно 40% от экрана) с возможностью выгрузить себе на стационарный ПК (без остановки записи и потери кадров) любого интервала времени (от часа до, максимум, ориентировочно, 7ми суток) для ускоренной перемотки-просмотра-анализа.

Граббер (вроде, подходящее название, так?) должен функционировать круглосуточно без перерывов и сбоев, т.е. иметь возможность устанавливаться и функционировать на удалённом сервере (VPN, VPS); управление, подключение и выгрузка же частей записанного - со стационарного ПК. Аудиопоток записывать не нужно. Граббер должен самостоятельно сохранять сутки записи с корректным названием файла в видеоформате (.avi, .mp4, .wmv...) в хранилище записей (это помимо выхвата любого фрагмента из текущих суток записи).

Я уже полазил по этим вашим Интернетам, и нашёл только такие похожие примеры и решения:
https://github.com/rdp/screen-capture-recorder-to-... - "screen capture" device and recorder
habrahabr.ru/post/196598 - Фотонаблюдение или timelapse видео на Raspberry Pi
habrahabr.ru/post/208788 - Бесшовное разбиение и склейка видео с помощью DirectShow
habrahabr.ru/post/179167 - Знакомство с GStreamer: Источники данных

Есть ли уже решения для такой задачи? Кто сталкивался с такими задачами?
Возможно ли сделать такой граббер немножко нубам в ИТ? Если да, то каким образом?
Кто возьмётся (ну а вдруг?) за осуществление сего проекта? Или хотя бы поможет грамотно составить техническое задание для Ваших коллег?

Заранее спасибо!
  • Вопрос задан
  • 449 просмотров
Подписаться 1 Оценить Комментировать
Пригласить эксперта
Ответы на вопрос 1
gbg
@gbg
Любые ответы на любые вопросы
Вот даром не нужно писать сайт в видеофайл, если изначально это не видеофайл. Это примерно как удалять зуб через глаз, по пути обязательно навестив пятку.

Нужно всего лишь разобрать разметку сайта, найти нужный кусок, и по cron загружать его. Хоть по curl, хоть по wget. Отказоустойчивость банально достигается запуском кучи экземпляров качалки.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы