Я хочу встроить видеопоток на свою веб-страницу, которая является частью нашего собственного облачного программного обеспечения. Видео должно быть с малой задержкой (как видеоконференция), и желательно, но не обязательно, чтобы оно включало звук. Мне удобно передавать потоковые двоичные данные со стороны сервера и встраивать их в страницу с помощью видео HTML5.
Что меня не устраивает, так это возможность захвата видеоданных для начала. У клиента еще нет готового решения, и он обращается к нам за помощью. Видео будет маршрутизироваться через наше серверное оборудование, а не быть встроенной частью, которая напрямую подключается к источнику видео.
Для нас известно использование USB или встроенной камеры с компьютера. Я хотел бы получить больше информации об автономных камерах.
Некоторые модели камер имеют собственную документацию по API (пример). Из того, что я читаю, может показаться, что у производителя обычно есть свой собственный API, который они повторяют во многих или во всех своих моделях, и что каждый производитель будет отличаться в своем API. Тем не менее, я только поверхностно читал и надеюсь получить больше знаний от кого-то, кто уже исследовал это или, возможно, даже имел личный опыт.
Включают ли автономные камеры обычно API? (Разве это не общее требование, чтобы программное обеспечение безопасности могло использовать несколько рядов камер?) Или, если это не API, как данные извлекаются из встроенного веб-сервера? Обычно это флэш-память? Возможно, есть повторно используемый видеопоток, который я мог бы захватить оттуда? Или форматирование потока обычно разнообразно?
С чем бы я столкнулся, пытаясь заставить серверную часть собирать эти данные?
Как соотносится задержка на отдельном устройстве с решением для USB-камеры?
Есть ли у вас советы по выбору отдельной камеры, которая подойдет для потоковой передачи через сервер?
У меня есть опыт использования JavaScript (как HTML5, так и Node.JS), Perl и Java.